Add the rt linux 4.1.3-rt3 as base
[kvmfornfv.git] / kernel / mm / mmu_context.c
1 /* Copyright (C) 2009 Red Hat, Inc.
2  *
3  * See ../COPYING for licensing terms.
4  */
5
6 #include <linux/mm.h>
7 #include <linux/mmu_context.h>
8 #include <linux/export.h>
9 #include <linux/sched.h>
10
11 #include <asm/mmu_context.h>
12
13 /*
14  * use_mm
15  *      Makes the calling kernel thread take on the specified
16  *      mm context.
17  *      (Note: this routine is intended to be called only
18  *      from a kernel thread context)
19  */
20 void use_mm(struct mm_struct *mm)
21 {
22         struct mm_struct *active_mm;
23         struct task_struct *tsk = current;
24
25         task_lock(tsk);
26         preempt_disable_rt();
27         active_mm = tsk->active_mm;
28         if (active_mm != mm) {
29                 atomic_inc(&mm->mm_count);
30                 tsk->active_mm = mm;
31         }
32         tsk->mm = mm;
33         switch_mm(active_mm, mm, tsk);
34         preempt_enable_rt();
35         task_unlock(tsk);
36 #ifdef finish_arch_post_lock_switch
37         finish_arch_post_lock_switch();
38 #endif
39
40         if (active_mm != mm)
41                 mmdrop(active_mm);
42 }
43 EXPORT_SYMBOL_GPL(use_mm);
44
45 /*
46  * unuse_mm
47  *      Reverses the effect of use_mm, i.e. releases the
48  *      specified mm context which was earlier taken on
49  *      by the calling kernel thread
50  *      (Note: this routine is intended to be called only
51  *      from a kernel thread context)
52  */
53 void unuse_mm(struct mm_struct *mm)
54 {
55         struct task_struct *tsk = current;
56
57         task_lock(tsk);
58         sync_mm_rss(mm);
59         tsk->mm = NULL;
60         /* active_mm is still 'mm' */
61         enter_lazy_tlb(mm, tsk);
62         task_unlock(tsk);
63 }
64 EXPORT_SYMBOL_GPL(unuse_mm);