Add the rt linux 4.1.3-rt3 as base
[kvmfornfv.git] / kernel / include / linux / irq_work.h
1 #ifndef _LINUX_IRQ_WORK_H
2 #define _LINUX_IRQ_WORK_H
3
4 #include <linux/llist.h>
5
6 /*
7  * An entry can be in one of four states:
8  *
9  * free      NULL, 0 -> {claimed}       : free to be used
10  * claimed   NULL, 3 -> {pending}       : claimed to be enqueued
11  * pending   next, 3 -> {busy}          : queued, pending callback
12  * busy      NULL, 2 -> {free, claimed} : callback in progress, can be claimed
13  */
14
15 #define IRQ_WORK_PENDING        1UL
16 #define IRQ_WORK_BUSY           2UL
17 #define IRQ_WORK_FLAGS          3UL
18 #define IRQ_WORK_LAZY           4UL /* Doesn't want IPI, wait for tick */
19 #define IRQ_WORK_HARD_IRQ       8UL /* Run hard IRQ context, even on RT */
20
21 struct irq_work {
22         unsigned long flags;
23         struct llist_node llnode;
24         void (*func)(struct irq_work *);
25 };
26
27 static inline
28 void init_irq_work(struct irq_work *work, void (*func)(struct irq_work *))
29 {
30         work->flags = 0;
31         work->func = func;
32 }
33
34 #define DEFINE_IRQ_WORK(name, _f) struct irq_work name = { .func = (_f), }
35
36 bool irq_work_queue(struct irq_work *work);
37
38 #ifdef CONFIG_SMP
39 bool irq_work_queue_on(struct irq_work *work, int cpu);
40 #endif
41
42 void irq_work_tick(void);
43 void irq_work_sync(struct irq_work *work);
44
45 #ifdef CONFIG_IRQ_WORK
46 #include <asm/irq_work.h>
47
48 void irq_work_run(void);
49 bool irq_work_needs_cpu(void);
50 #else
51 static inline bool irq_work_needs_cpu(void) { return false; }
52 static inline void irq_work_run(void) { }
53 #endif
54
55 #endif /* _LINUX_IRQ_WORK_H */