]> git.scottworley.com Git - tattlekey/commitdiff
client: Make the queue size bounds configurable
authorScott Worley <scottworley@scottworley.com>
Tue, 10 Oct 2023 08:14:15 +0000 (01:14 -0700)
committerScott Worley <scottworley@scottworley.com>
Wed, 11 Oct 2023 01:49:46 +0000 (18:49 -0700)
client/config.c
client/config.h
client/press.c

index 8a31cf5beb04bf0b4a856e611565370cd7babf1d..0e1a86d29e6610f36ef110f8aa49ca848a18de29 100644 (file)
@@ -24,3 +24,18 @@ u32_t config_minimum_seconds_between_button_presses = 1;
 
 /* Send each report multiple times. */
 uint config_resend_count = 5;
 
 /* Send each report multiple times. */
 uint config_resend_count = 5;
+
+/* These control the size of the per-send-count press queues.
+When the button is pressed more than config_maximum_queue_size times
+within the resend interval, some presses will be reported fewer
+than config_resend_count times. This is usually fine because it's
+the old, longest-delayed, most-redundant reports that get dropped;
+fresh, timely reports of new button presses will not get anywhere near
+config_resend_count in a resend interval because the early resend internals
+are so short.  */
+uint config_maximum_queue_size = 512;
+
+/* This is paranoia about unanticipated delays.  Setting this to zero
+would probably be fine, but imposing a minimum queue size is an easy
+safety measure. */
+uint config_minimum_queue_size = 32;
index 744e58626dc0b053b51ea74009ac4ab6da63f8a5..23f04d5c6acd66d24d13a0304193b616b223c212 100644 (file)
@@ -28,4 +28,19 @@ extern u32_t config_minimum_seconds_between_button_presses;
 /* Send each report multiple times. */
 extern uint config_resend_count;
 
 /* Send each report multiple times. */
 extern uint config_resend_count;
 
+/* These control the size of the per-send-count press queues.
+When the button is pressed more than config_maximum_queue_size times
+within the resend interval, some presses will be reported fewer
+than config_resend_count times. This is usually fine because it's
+the old, longest-delyed, most-redundant reports that get dropped;
+fresh, timely reports of new button presses will not get anywhere near
+config_resend_count in a resend interval because the early resend interals
+are so short.  */
+extern uint config_maximum_queue_size;
+
+/* This is paranoia about unanticipated delays.  Setting this to zero
+would pobably be fine, but imposing a minimum queue size is an easy
+safety measure. */
+extern uint config_minimum_queue_size;
+
 #endif
 #endif
index cec17094d29830bbf1322449c001fe770fe5c235..6c46ae9f6df5a584f54a7f3ddefc07bfc8ab3b30 100644 (file)
@@ -29,9 +29,10 @@ press_pile_t *create_press_pile() {
   pp->presses = (queue_t *)xcalloc(config_resend_count, sizeof(queue_t));
   pp->sleeps = (queue_t **)xcalloc(config_resend_count, sizeof(queue_t *));
   for (int i = 0; i < config_resend_count; i++) {
   pp->presses = (queue_t *)xcalloc(config_resend_count, sizeof(queue_t));
   pp->sleeps = (queue_t **)xcalloc(config_resend_count, sizeof(queue_t *));
   for (int i = 0; i < config_resend_count; i++) {
-    uint element_count = 1 << i;
-    element_count = MAX(element_count, 32);
-    element_count = MIN(element_count, 512);
+    const uint paranoid_safety_fudge = 10;
+    uint element_count = paranoid_safety_fudge + (1 << i);
+    element_count = MAX(element_count, config_minimum_queue_size);
+    element_count = MIN(element_count, config_maximum_queue_size);
     queue_init(&pp->presses[i], sizeof(press_t), element_count);
   }
   pp->sleeps_heap =
     queue_init(&pp->presses[i], sizeof(press_t), element_count);
   }
   pp->sleeps_heap =