@@ -2922,6 +2922,12 @@ void __io_uring_cancel(bool cancel_all)
io_uring_cancel_generic(cancel_all, NULL);
}
+struct io_wq_work *io_uringlet_cancel(struct io_wq_work *work)
+{
+ __io_uring_cancel(true);
+ return NULL;
+}
+
static void *io_uring_validate_mmap_request(struct file *file,
loff_t pgoff, size_t sz)
{
@@ -71,6 +71,7 @@ int io_req_prep_async(struct io_kiocb *req);
void io_uringlet_end(struct io_ring_ctx *ctx);
struct io_wq_work *io_wq_free_work(struct io_wq_work *work);
+struct io_wq_work *io_uringlet_cancel(struct io_wq_work *work);
int io_wq_submit_work(struct io_wq_work *work);
void io_free_req(struct io_kiocb *req);
@@ -41,9 +41,11 @@ struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx,
if (ctx->flags & IORING_SETUP_URINGLET) {
data.private = ctx;
data.do_work = io_submit_sqes_let;
+ data.free_work = io_uringlet_cancel;
} else {
data.private = NULL;
data.do_work = io_wq_submit_work;
+ data.free_work = io_wq_free_work;
}
/* Do QD, or 4 * CPUS, whatever is smallest */