#define PA_ASYNCQ_CELLS(x) ((pa_atomic_ptr_t*) ((uint8_t*) (x) + PA_ALIGN(sizeof(struct pa_asyncq))))
-static int reduce(pa_asyncq *l, int value) {
+static unsigned reduce(pa_asyncq *l, unsigned value) {
return value & (unsigned) (l->size - 1);
}
}
static int push(pa_asyncq*l, void *p, pa_bool_t wait) {
- int idx;
+ unsigned idx;
pa_atomic_ptr_t *cells;
pa_assert(l);
return 0;
}
-static pa_bool_t flush_postq(pa_asyncq *l) {
+static pa_bool_t flush_postq(pa_asyncq *l, pa_bool_t wait) {
struct localq *q;
pa_assert(l);
while ((q = l->last_localq)) {
- if (push(l, q->data, FALSE) < 0)
+ if (push(l, q->data, wait) < 0)
return FALSE;
l->last_localq = q->prev;
int pa_asyncq_push(pa_asyncq*l, void *p, pa_bool_t wait) {
pa_assert(l);
- if (!flush_postq(l))
+ if (!flush_postq(l, wait))
return -1;
return push(l, p, wait);
pa_assert(l);
pa_assert(p);
- if (pa_asyncq_push(l, p, FALSE) >= 0)
- return;
+ if (flush_postq(l, FALSE))
+ if (pa_asyncq_push(l, p, FALSE) >= 0)
+ return;
/* OK, we couldn't push anything in the queue. So let's queue it
* locally and push it later */
- pa_log("q overrun, queuing locally");
+ if (pa_log_ratelimit())
+ pa_log_warn("q overrun, queuing locally");
if (!(q = pa_flist_pop(PA_STATIC_FLIST_GET(localq))))
q = pa_xnew(struct localq, 1);
}
void* pa_asyncq_pop(pa_asyncq*l, pa_bool_t wait) {
- int idx;
+ unsigned idx;
void *ret;
pa_atomic_ptr_t *cells;
}
int pa_asyncq_read_before_poll(pa_asyncq *l) {
- int idx;
+ unsigned idx;
pa_atomic_ptr_t *cells;
pa_assert(l);
if (pa_fdsem_before_poll(l->write_fdsem) >= 0)
return 0;
}
-
- return 0;
}
void pa_asyncq_read_after_poll(pa_asyncq *l) {
for (;;) {
- if (flush_postq(l))
+ if (flush_postq(l, FALSE))
break;
if (pa_fdsem_before_poll(l->read_fdsem) >= 0) {