These changes are the raw update to linux-4.4.6-rt14. Kernel sources
[kvmfornfv.git] / kernel / Documentation / memory-barriers.txt
index f957461..aef9487 100644 (file)
@@ -194,22 +194,22 @@ There are some minimal guarantees that may be expected of a CPU:
  (*) On any given CPU, dependent memory accesses will be issued in order, with
      respect to itself.  This means that for:
 
-       ACCESS_ONCE(Q) = P; smp_read_barrier_depends(); D = ACCESS_ONCE(*Q);
+       WRITE_ONCE(Q, P); smp_read_barrier_depends(); D = READ_ONCE(*Q);
 
      the CPU will issue the following memory operations:
 
        Q = LOAD P, D = LOAD *Q
 
      and always in that order.  On most systems, smp_read_barrier_depends()
-     does nothing, but it is required for DEC Alpha.  The ACCESS_ONCE()
-     is required to prevent compiler mischief.  Please note that you
-     should normally use something like rcu_dereference() instead of
-     open-coding smp_read_barrier_depends().
+     does nothing, but it is required for DEC Alpha.  The READ_ONCE()
+     and WRITE_ONCE() are required to prevent compiler mischief.  Please
+     note that you should normally use something like rcu_dereference()
+     instead of open-coding smp_read_barrier_depends().
 
  (*) Overlapping loads and stores within a particular CPU will appear to be
      ordered within that CPU.  This means that for:
 
-       a = ACCESS_ONCE(*X); ACCESS_ONCE(*X) = b;
+       a = READ_ONCE(*X); WRITE_ONCE(*X, b);
 
      the CPU will only issue the following sequence of memory operations:
 
@@ -217,7 +217,7 @@ There are some minimal guarantees that may be expected of a CPU:
 
      And for:
 
-       ACCESS_ONCE(*X) = c; d = ACCESS_ONCE(*X);
+       WRITE_ONCE(*X, c); d = READ_ONCE(*X);
 
      the CPU will only issue:
 
@@ -228,11 +228,11 @@ There are some minimal guarantees that may be expected of a CPU:
 
 And there are a number of things that _must_ or _must_not_ be assumed:
 
- (*) It _must_not_ be assumed that the compiler will do what you want with
-     memory references that are not protected by ACCESS_ONCE().  Without
-     ACCESS_ONCE(), the compiler is within its rights to do all sorts
-     of "creative" transformations, which are covered in the Compiler
-     Barrier section.
+ (*) It _must_not_ be assumed that the compiler will do what you want
+     with memory references that are not protected by READ_ONCE() and
+     WRITE_ONCE().  Without them, the compiler is within its rights to
+     do all sorts of "creative" transformations, which are covered in
+     the Compiler Barrier section.
 
  (*) It _must_not_ be assumed that independent loads and stores will be issued
      in the order given.  This means that for:
@@ -520,8 +520,8 @@ following sequence of events:
        { A == 1, B == 2, C = 3, P == &A, Q == &C }
        B = 4;
        <write barrier>
-       ACCESS_ONCE(P) = &B
-                             Q = ACCESS_ONCE(P);
+       WRITE_ONCE(P, &B)
+                             Q = READ_ONCE(P);
                              D = *Q;
 
 There's a clear data dependency here, and it would seem that by the end of the
@@ -547,8 +547,8 @@ between the address load and the data load:
        { A == 1, B == 2, C = 3, P == &A, Q == &C }
        B = 4;
        <write barrier>
-       ACCESS_ONCE(P) = &B
-                             Q = ACCESS_ONCE(P);
+       WRITE_ONCE(P, &B);
+                             Q = READ_ONCE(P);
                              <data dependency barrier>
                              D = *Q;
 
@@ -574,8 +574,8 @@ access:
        { M[0] == 1, M[1] == 2, M[3] = 3, P == 0, Q == 3 }
        M[1] = 4;
        <write barrier>
-       ACCESS_ONCE(P) = 1
-                             Q = ACCESS_ONCE(P);
+       WRITE_ONCE(P, 1);
+                             Q = READ_ONCE(P);
                              <data dependency barrier>
                              D = M[Q];
 
@@ -596,10 +596,10 @@ A load-load control dependency requires a full read memory barrier, not
 simply a data dependency barrier to make it work correctly.  Consider the
 following bit of code:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q) {
                <data dependency barrier>  /* BUG: No data dependency!!! */
-               p = ACCESS_ONCE(b);
+               p = READ_ONCE(b);
        }
 
 This will not have the desired effect because there is no actual data
@@ -608,25 +608,25 @@ by attempting to predict the outcome in advance, so that other CPUs see
 the load from b as having happened before the load from a.  In such a
 case what's actually required is:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q) {
                <read barrier>
-               p = ACCESS_ONCE(b);
+               p = READ_ONCE(b);
        }
 
 However, stores are not speculated.  This means that ordering -is- provided
 for load-store control dependencies, as in the following example:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q) {
-               ACCESS_ONCE(b) = p;
+               WRITE_ONCE(b, p);
        }
 
-Control dependencies pair normally with other types of barriers.
-That said, please note that ACCESS_ONCE() is not optional!  Without the
-ACCESS_ONCE(), might combine the load from 'a' with other loads from
-'a', and the store to 'b' with other stores to 'b', with possible highly
-counterintuitive effects on ordering.
+Control dependencies pair normally with other types of barriers.  That
+said, please note that READ_ONCE() is not optional! Without the
+READ_ONCE(), the compiler might combine the load from 'a' with other
+loads from 'a', and the store to 'b' with other stores to 'b', with
+possible highly counterintuitive effects on ordering.
 
 Worse yet, if the compiler is able to prove (say) that the value of
 variable 'a' is always non-zero, it would be well within its rights
@@ -636,33 +636,33 @@ as follows:
        q = a;
        b = p;  /* BUG: Compiler and CPU can both reorder!!! */
 
-So don't leave out the ACCESS_ONCE().
+So don't leave out the READ_ONCE().
 
 It is tempting to try to enforce ordering on identical stores on both
 branches of the "if" statement as follows:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q) {
                barrier();
-               ACCESS_ONCE(b) = p;
+               WRITE_ONCE(b, p);
                do_something();
        } else {
                barrier();
-               ACCESS_ONCE(b) = p;
+               WRITE_ONCE(b, p);
                do_something_else();
        }
 
 Unfortunately, current compilers will transform this as follows at high
 optimization levels:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        barrier();
-       ACCESS_ONCE(b) = p;  /* BUG: No ordering vs. load from a!!! */
+       WRITE_ONCE(b, p);  /* BUG: No ordering vs. load from a!!! */
        if (q) {
-               /* ACCESS_ONCE(b) = p; -- moved up, BUG!!! */
+               /* WRITE_ONCE(b, p); -- moved up, BUG!!! */
                do_something();
        } else {
-               /* ACCESS_ONCE(b) = p; -- moved up, BUG!!! */
+               /* WRITE_ONCE(b, p); -- moved up, BUG!!! */
                do_something_else();
        }
 
@@ -673,7 +673,7 @@ assembly code even after all compiler optimizations have been applied.
 Therefore, if you need ordering in this example, you need explicit
 memory barriers, for example, smp_store_release():
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q) {
                smp_store_release(&b, p);
                do_something();
@@ -685,28 +685,28 @@ memory barriers, for example, smp_store_release():
 In contrast, without explicit memory barriers, two-legged-if control
 ordering is guaranteed only when the stores differ, for example:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q) {
-               ACCESS_ONCE(b) = p;
+               WRITE_ONCE(b, p);
                do_something();
        } else {
-               ACCESS_ONCE(b) = r;
+               WRITE_ONCE(b, r);
                do_something_else();
        }
 
-The initial ACCESS_ONCE() is still required to prevent the compiler from
+The initial READ_ONCE() is still required to prevent the compiler from
 proving the value of 'a'.
 
 In addition, you need to be careful what you do with the local variable 'q',
 otherwise the compiler might be able to guess the value and again remove
 the needed conditional.  For example:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        if (q % MAX) {
-               ACCESS_ONCE(b) = p;
+               WRITE_ONCE(b, p);
                do_something();
        } else {
-               ACCESS_ONCE(b) = r;
+               WRITE_ONCE(b, r);
                do_something_else();
        }
 
@@ -714,8 +714,8 @@ If MAX is defined to be 1, then the compiler knows that (q % MAX) is
 equal to zero, in which case the compiler is within its rights to
 transform the above code into the following:
 
-       q = ACCESS_ONCE(a);
-       ACCESS_ONCE(b) = p;
+       q = READ_ONCE(a);
+       WRITE_ONCE(b, p);
        do_something_else();
 
 Given this transformation, the CPU is not required to respect the ordering
@@ -725,13 +725,13 @@ is gone, and the barrier won't bring it back.  Therefore, if you are
 relying on this ordering, you should make sure that MAX is greater than
 one, perhaps as follows:
 
-       q = ACCESS_ONCE(a);
+       q = READ_ONCE(a);
        BUILD_BUG_ON(MAX <= 1); /* Order load from a with store to b. */
        if (q % MAX) {
-               ACCESS_ONCE(b) = p;
+               WRITE_ONCE(b, p);
                do_something();
        } else {
-               ACCESS_ONCE(b) = r;
+               WRITE_ONCE(b, r);
                do_something_else();
        }
 
@@ -742,18 +742,19 @@ of the 'if' statement.
 You must also be careful not to rely too much on boolean short-circuit
 evaluation.  Consider this example:
 
-       q = ACCESS_ONCE(a);
-       if (a || 1 > 0)
-               ACCESS_ONCE(b) = 1;
+       q = READ_ONCE(a);
+       if (q || 1 > 0)
+               WRITE_ONCE(b, 1);
 
-Because the second condition is always true, the compiler can transform
-this example as following, defeating control dependency:
+Because the first condition cannot fault and the second condition is
+always true, the compiler can transform this example as following,
+defeating control dependency:
 
-       q = ACCESS_ONCE(a);
-       ACCESS_ONCE(b) = 1;
+       q = READ_ONCE(a);
+       WRITE_ONCE(b, 1);
 
 This example underscores the need to ensure that the compiler cannot
-out-guess your code.  More generally, although ACCESS_ONCE() does force
+out-guess your code.  More generally, although READ_ONCE() does force
 the compiler to actually emit code for a given load, it does not force
 the compiler to use the results.
 
@@ -762,10 +763,10 @@ demonstrated by two related examples, with the initial values of
 x and y both being zero:
 
        CPU 0                     CPU 1
-       =====================     =====================
-       r1 = ACCESS_ONCE(x);      r2 = ACCESS_ONCE(y);
+       =======================   =======================
+       r1 = READ_ONCE(x);        r2 = READ_ONCE(y);
        if (r1 > 0)               if (r2 > 0)
-         ACCESS_ONCE(y) = 1;       ACCESS_ONCE(x) = 1;
+         WRITE_ONCE(y, 1);         WRITE_ONCE(x, 1);
 
        assert(!(r1 == 1 && r2 == 1));
 
@@ -775,7 +776,7 @@ then adding the following CPU would guarantee a related assertion:
 
        CPU 2
        =====================
-       ACCESS_ONCE(x) = 2;
+       WRITE_ONCE(x, 2);
 
        assert(!(r1 == 2 && r2 == 1 && x == 2)); /* FAILS!!! */
 
@@ -783,7 +784,8 @@ But because control dependencies do -not- provide transitivity, the above
 assertion can fail after the combined three-CPU example completes.  If you
 need the three-CPU example to provide ordering, you will need smp_mb()
 between the loads and stores in the CPU 0 and CPU 1 code fragments,
-that is, just before or just after the "if" statements.
+that is, just before or just after the "if" statements.  Furthermore,
+the original two-CPU example is very fragile and should be avoided.
 
 These two examples are the LB and WWC litmus tests from this paper:
 http://www.cl.cam.ac.uk/users/pes20/ppc-supplemental/test6.pdf and this
@@ -804,15 +806,15 @@ In summary:
 
   (*) Control dependencies require at least one run-time conditional
       between the prior load and the subsequent store, and this
-      conditional must involve the prior load.  If the compiler
-      is able to optimize the conditional away, it will have also
-      optimized away the ordering.  Careful use of ACCESS_ONCE() can
-      help to preserve the needed conditional.
+      conditional must involve the prior load.  If the compiler is able
+      to optimize the conditional away, it will have also optimized
+      away the ordering.  Careful use of READ_ONCE() and WRITE_ONCE()
+      can help to preserve the needed conditional.
 
   (*) Control dependencies require that the compiler avoid reordering the
-      dependency into nonexistence.  Careful use of ACCESS_ONCE() or
-      barrier() can help to preserve your control dependency.  Please
-      see the Compiler Barrier section for more information.
+      dependency into nonexistence.  Careful use of READ_ONCE() or
+      atomic{,64}_read() can help to preserve your control dependency.
+      Please see the Compiler Barrier section for more information.
 
   (*) Control dependencies pair normally with other types of barriers.
 
@@ -837,11 +839,11 @@ barrier, an acquire barrier, a release barrier, or a general barrier:
 
        CPU 1                 CPU 2
        ===============       ===============
-       ACCESS_ONCE(a) = 1;
+       WRITE_ONCE(a, 1);
        <write barrier>
-       ACCESS_ONCE(b) = 2;   x = ACCESS_ONCE(b);
+       WRITE_ONCE(b, 2);     x = READ_ONCE(b);
                              <read barrier>
-                             y = ACCESS_ONCE(a);
+                             y = READ_ONCE(a);
 
 Or:
 
@@ -849,7 +851,7 @@ Or:
        ===============       ===============================
        a = 1;
        <write barrier>
-       ACCESS_ONCE(b) = &a;  x = ACCESS_ONCE(b);
+       WRITE_ONCE(b, &a);    x = READ_ONCE(b);
                              <data dependency barrier>
                              y = *x;
 
@@ -857,11 +859,11 @@ Or even:
 
        CPU 1                 CPU 2
        ===============       ===============================
-       r1 = ACCESS_ONCE(y);
+       r1 = READ_ONCE(y);
        <general barrier>
-       ACCESS_ONCE(y) = 1;   if (r2 = ACCESS_ONCE(x)) {
+       WRITE_ONCE(y, 1);     if (r2 = READ_ONCE(x)) {
                                 <implicit control dependency>
-                                ACCESS_ONCE(y) = 1;
+                                WRITE_ONCE(y, 1);
                              }
 
        assert(r1 == 0 || r2 == 0);
@@ -875,11 +877,11 @@ versa:
 
        CPU 1                               CPU 2
        ===================                 ===================
-       ACCESS_ONCE(a) = 1;  }----   --->{  v = ACCESS_ONCE(c);
-       ACCESS_ONCE(b) = 2;  }    \ /    {  w = ACCESS_ONCE(d);
+       WRITE_ONCE(a, 1);    }----   --->{  v = READ_ONCE(c);
+       WRITE_ONCE(b, 2);    }    \ /    {  w = READ_ONCE(d);
        <write barrier>            \        <read barrier>
-       ACCESS_ONCE(c) = 3;  }    / \    {  x = ACCESS_ONCE(a);
-       ACCESS_ONCE(d) = 4;  }----   --->{  y = ACCESS_ONCE(b);
+       WRITE_ONCE(c, 3);    }    / \    {  x = READ_ONCE(a);
+       WRITE_ONCE(d, 4);    }----   --->{  y = READ_ONCE(b);
 
 
 EXAMPLES OF MEMORY BARRIER SEQUENCES
@@ -1329,10 +1331,10 @@ compiler from moving the memory accesses either side of it to the other side:
 
        barrier();
 
-This is a general barrier -- there are no read-read or write-write variants
-of barrier().  However, ACCESS_ONCE() can be thought of as a weak form
-for barrier() that affects only the specific accesses flagged by the
-ACCESS_ONCE().
+This is a general barrier -- there are no read-read or write-write
+variants of barrier().  However, READ_ONCE() and WRITE_ONCE() can be
+thought of as weak forms of barrier() that affect only the specific
+accesses flagged by the READ_ONCE() or WRITE_ONCE().
 
 The barrier() function has the following effects:
 
@@ -1344,9 +1346,10 @@ The barrier() function has the following effects:
  (*) Within a loop, forces the compiler to load the variables used
      in that loop's conditional on each pass through that loop.
 
-The ACCESS_ONCE() function can prevent any number of optimizations that,
-while perfectly safe in single-threaded code, can be fatal in concurrent
-code.  Here are some examples of these sorts of optimizations:
+The READ_ONCE() and WRITE_ONCE() functions can prevent any number of
+optimizations that, while perfectly safe in single-threaded code, can
+be fatal in concurrent code.  Here are some examples of these sorts
+of optimizations:
 
  (*) The compiler is within its rights to reorder loads and stores
      to the same variable, and in some cases, the CPU is within its
@@ -1359,11 +1362,11 @@ code.  Here are some examples of these sorts of optimizations:
      Might result in an older value of x stored in a[1] than in a[0].
      Prevent both the compiler and the CPU from doing this as follows:
 
-       a[0] = ACCESS_ONCE(x);
-       a[1] = ACCESS_ONCE(x);
+       a[0] = READ_ONCE(x);
+       a[1] = READ_ONCE(x);
 
-     In short, ACCESS_ONCE() provides cache coherence for accesses from
-     multiple CPUs to a single variable.
+     In short, READ_ONCE() and WRITE_ONCE() provide cache coherence for
+     accesses from multiple CPUs to a single variable.
 
  (*) The compiler is within its rights to merge successive loads from
      the same variable.  Such merging can cause the compiler to "optimize"
@@ -1380,9 +1383,9 @@ code.  Here are some examples of these sorts of optimizations:
                for (;;)
                        do_something_with(tmp);
 
-     Use ACCESS_ONCE() to prevent the compiler from doing this to you:
+     Use READ_ONCE() to prevent the compiler from doing this to you:
 
-       while (tmp = ACCESS_ONCE(a))
+       while (tmp = READ_ONCE(a))
                do_something_with(tmp);
 
  (*) The compiler is within its rights to reload a variable, for example,
@@ -1404,9 +1407,9 @@ code.  Here are some examples of these sorts of optimizations:
      a was modified by some other CPU between the "while" statement and
      the call to do_something_with().
 
-     Again, use ACCESS_ONCE() to prevent the compiler from doing this:
+     Again, use READ_ONCE() to prevent the compiler from doing this:
 
-       while (tmp = ACCESS_ONCE(a))
+       while (tmp = READ_ONCE(a))
                do_something_with(tmp);
 
      Note that if the compiler runs short of registers, it might save
@@ -1426,21 +1429,21 @@ code.  Here are some examples of these sorts of optimizations:
 
        do { } while (0);
 
-     This transformation is a win for single-threaded code because it gets
-     rid of a load and a branch.  The problem is that the compiler will
-     carry out its proof assuming that the current CPU is the only one
-     updating variable 'a'.  If variable 'a' is shared, then the compiler's
-     proof will be erroneous.  Use ACCESS_ONCE() to tell the compiler
-     that it doesn't know as much as it thinks it does:
+     This transformation is a win for single-threaded code because it
+     gets rid of a load and a branch.  The problem is that the compiler
+     will carry out its proof assuming that the current CPU is the only
+     one updating variable 'a'.  If variable 'a' is shared, then the
+     compiler's proof will be erroneous.  Use READ_ONCE() to tell the
+     compiler that it doesn't know as much as it thinks it does:
 
-       while (tmp = ACCESS_ONCE(a))
+       while (tmp = READ_ONCE(a))
                do_something_with(tmp);
 
      But please note that the compiler is also closely watching what you
-     do with the value after the ACCESS_ONCE().  For example, suppose you
+     do with the value after the READ_ONCE().  For example, suppose you
      do the following and MAX is a preprocessor macro with the value 1:
 
-       while ((tmp = ACCESS_ONCE(a)) % MAX)
+       while ((tmp = READ_ONCE(a)) % MAX)
                do_something_with(tmp);
 
      Then the compiler knows that the result of the "%" operator applied
@@ -1464,12 +1467,12 @@ code.  Here are some examples of these sorts of optimizations:
      surprise if some other CPU might have stored to variable 'a' in the
      meantime.
 
-     Use ACCESS_ONCE() to prevent the compiler from making this sort of
+     Use WRITE_ONCE() to prevent the compiler from making this sort of
      wrong guess:
 
-       ACCESS_ONCE(a) = 0;
+       WRITE_ONCE(a, 0);
        /* Code that does not store to variable a. */
-       ACCESS_ONCE(a) = 0;
+       WRITE_ONCE(a, 0);
 
  (*) The compiler is within its rights to reorder memory accesses unless
      you tell it not to.  For example, consider the following interaction
@@ -1498,40 +1501,43 @@ code.  Here are some examples of these sorts of optimizations:
        }
 
      If the interrupt occurs between these two statement, then
-     interrupt_handler() might be passed a garbled msg.  Use ACCESS_ONCE()
+     interrupt_handler() might be passed a garbled msg.  Use WRITE_ONCE()
      to prevent this as follows:
 
        void process_level(void)
        {
-               ACCESS_ONCE(msg) = get_message();
-               ACCESS_ONCE(flag) = true;
+               WRITE_ONCE(msg, get_message());
+               WRITE_ONCE(flag, true);
        }
 
        void interrupt_handler(void)
        {
-               if (ACCESS_ONCE(flag))
-                       process_message(ACCESS_ONCE(msg));
+               if (READ_ONCE(flag))
+                       process_message(READ_ONCE(msg));
        }
 
-     Note that the ACCESS_ONCE() wrappers in interrupt_handler()
-     are needed if this interrupt handler can itself be interrupted
-     by something that also accesses 'flag' and 'msg', for example,
-     a nested interrupt or an NMI.  Otherwise, ACCESS_ONCE() is not
-     needed in interrupt_handler() other than for documentation purposes.
-     (Note also that nested interrupts do not typically occur in modern
-     Linux kernels, in fact, if an interrupt handler returns with
-     interrupts enabled, you will get a WARN_ONCE() splat.)
-
-     You should assume that the compiler can move ACCESS_ONCE() past
-     code not containing ACCESS_ONCE(), barrier(), or similar primitives.
-
-     This effect could also be achieved using barrier(), but ACCESS_ONCE()
-     is more selective:  With ACCESS_ONCE(), the compiler need only forget
-     the contents of the indicated memory locations, while with barrier()
-     the compiler must discard the value of all memory locations that
-     it has currented cached in any machine registers.  Of course,
-     the compiler must also respect the order in which the ACCESS_ONCE()s
-     occur, though the CPU of course need not do so.
+     Note that the READ_ONCE() and WRITE_ONCE() wrappers in
+     interrupt_handler() are needed if this interrupt handler can itself
+     be interrupted by something that also accesses 'flag' and 'msg',
+     for example, a nested interrupt or an NMI.  Otherwise, READ_ONCE()
+     and WRITE_ONCE() are not needed in interrupt_handler() other than
+     for documentation purposes.  (Note also that nested interrupts
+     do not typically occur in modern Linux kernels, in fact, if an
+     interrupt handler returns with interrupts enabled, you will get a
+     WARN_ONCE() splat.)
+
+     You should assume that the compiler can move READ_ONCE() and
+     WRITE_ONCE() past code not containing READ_ONCE(), WRITE_ONCE(),
+     barrier(), or similar primitives.
+
+     This effect could also be achieved using barrier(), but READ_ONCE()
+     and WRITE_ONCE() are more selective:  With READ_ONCE() and
+     WRITE_ONCE(), the compiler need only forget the contents of the
+     indicated memory locations, while with barrier() the compiler must
+     discard the value of all memory locations that it has currented
+     cached in any machine registers.  Of course, the compiler must also
+     respect the order in which the READ_ONCE()s and WRITE_ONCE()s occur,
+     though the CPU of course need not do so.
 
  (*) The compiler is within its rights to invent stores to a variable,
      as in the following example:
@@ -1551,16 +1557,16 @@ code.  Here are some examples of these sorts of optimizations:
      a branch.  Unfortunately, in concurrent code, this optimization
      could cause some other CPU to see a spurious value of 42 -- even
      if variable 'a' was never zero -- when loading variable 'b'.
-     Use ACCESS_ONCE() to prevent this as follows:
+     Use WRITE_ONCE() to prevent this as follows:
 
        if (a)
-               ACCESS_ONCE(b) = a;
+               WRITE_ONCE(b, a);
        else
-               ACCESS_ONCE(b) = 42;
+               WRITE_ONCE(b, 42);
 
      The compiler can also invent loads.  These are usually less
      damaging, but they can result in cache-line bouncing and thus in
-     poor performance and scalability.  Use ACCESS_ONCE() to prevent
+     poor performance and scalability.  Use READ_ONCE() to prevent
      invented loads.
 
  (*) For aligned memory locations whose size allows them to be accessed
@@ -1579,9 +1585,9 @@ code.  Here are some examples of these sorts of optimizations:
      This optimization can therefore be a win in single-threaded code.
      In fact, a recent bug (since fixed) caused GCC to incorrectly use
      this optimization in a volatile store.  In the absence of such bugs,
-     use of ACCESS_ONCE() prevents store tearing in the following example:
+     use of WRITE_ONCE() prevents store tearing in the following example:
 
-       ACCESS_ONCE(p) = 0x00010002;
+       WRITE_ONCE(p, 0x00010002);
 
      Use of packed structures can also result in load and store tearing,
      as in this example:
@@ -1598,22 +1604,23 @@ code.  Here are some examples of these sorts of optimizations:
        foo2.b = foo1.b;
        foo2.c = foo1.c;
 
-     Because there are no ACCESS_ONCE() wrappers and no volatile markings,
-     the compiler would be well within its rights to implement these three
-     assignment statements as a pair of 32-bit loads followed by a pair
-     of 32-bit stores.  This would result in load tearing on 'foo1.b'
-     and store tearing on 'foo2.b'.  ACCESS_ONCE() again prevents tearing
-     in this example:
+     Because there are no READ_ONCE() or WRITE_ONCE() wrappers and no
+     volatile markings, the compiler would be well within its rights to
+     implement these three assignment statements as a pair of 32-bit
+     loads followed by a pair of 32-bit stores.  This would result in
+     load tearing on 'foo1.b' and store tearing on 'foo2.b'.  READ_ONCE()
+     and WRITE_ONCE() again prevent tearing in this example:
 
        foo2.a = foo1.a;
-       ACCESS_ONCE(foo2.b) = ACCESS_ONCE(foo1.b);
+       WRITE_ONCE(foo2.b, READ_ONCE(foo1.b));
        foo2.c = foo1.c;
 
-All that aside, it is never necessary to use ACCESS_ONCE() on a variable
-that has been marked volatile.  For example, because 'jiffies' is marked
-volatile, it is never necessary to say ACCESS_ONCE(jiffies).  The reason
-for this is that ACCESS_ONCE() is implemented as a volatile cast, which
-has no effect when its argument is already marked volatile.
+All that aside, it is never necessary to use READ_ONCE() and
+WRITE_ONCE() on a variable that has been marked volatile.  For example,
+because 'jiffies' is marked volatile, it is never necessary to
+say READ_ONCE(jiffies).  The reason for this is that READ_ONCE() and
+WRITE_ONCE() are implemented as volatile casts, which has no effect when
+its argument is already marked volatile.
 
 Please note that these compiler barriers have no direct effect on the CPU,
 which may then reorder things however it wishes.
@@ -1635,14 +1642,15 @@ The Linux kernel has eight basic CPU memory barriers:
 All memory barriers except the data dependency barriers imply a compiler
 barrier. Data dependencies do not impose any additional compiler ordering.
 
-Aside: In the case of data dependencies, the compiler would be expected to
-issue the loads in the correct order (eg. `a[b]` would have to load the value
-of b before loading a[b]), however there is no guarantee in the C specification
-that the compiler may not speculate the value of b (eg. is equal to 1) and load
-a before b (eg. tmp = a[1]; if (b != 1) tmp = a[b]; ). There is also the
-problem of a compiler reloading b after having loaded a[b], thus having a newer
-copy of b than a[b]. A consensus has not yet been reached about these problems,
-however the ACCESS_ONCE macro is a good place to start looking.
+Aside: In the case of data dependencies, the compiler would be expected
+to issue the loads in the correct order (eg. `a[b]` would have to load
+the value of b before loading a[b]), however there is no guarantee in
+the C specification that the compiler may not speculate the value of b
+(eg. is equal to 1) and load a before b (eg. tmp = a[1]; if (b != 1)
+tmp = a[b]; ). There is also the problem of a compiler reloading b after
+having loaded a[b], thus having a newer copy of b than a[b]. A consensus
+has not yet been reached about these problems, however the READ_ONCE()
+macro is a good place to start looking.
 
 SMP memory barriers are reduced to compiler barriers on uniprocessor compiled
 systems because it is assumed that a CPU will appear to be self-consistent,
@@ -1662,7 +1670,7 @@ CPU from reordering them.
 
 There are some more advanced barrier functions:
 
- (*) set_mb(var, value)
+ (*) smp_store_mb(var, value)
 
      This assigns the value to the variable and then inserts a full memory
      barrier after it, depending on the function.  It isn't guaranteed to
@@ -1693,6 +1701,17 @@ There are some more advanced barrier functions:
      operations" subsection for information on where to use these.
 
 
+ (*) lockless_dereference();
+     This can be thought of as a pointer-fetch wrapper around the
+     smp_read_barrier_depends() data-dependency barrier.
+
+     This is also similar to rcu_dereference(), but in cases where
+     object lifetime is handled by some mechanism other than RCU, for
+     example, when the objects removed only when the system goes down.
+     In addition, lockless_dereference() is used in some data structures
+     that can be used both with and without RCU.
+
+
  (*) dma_wmb();
  (*) dma_rmb();
 
@@ -1772,7 +1791,6 @@ The Linux kernel has a number of locking constructs:
  (*) mutexes
  (*) semaphores
  (*) R/W semaphores
- (*) RCU
 
 In all cases there are variants on "ACQUIRE" operations and "RELEASE" operations
 for each construct.  These operations all imply certain barriers:
@@ -1784,10 +1802,9 @@ for each construct.  These operations all imply certain barriers:
 
      Memory operations issued before the ACQUIRE may be completed after
      the ACQUIRE operation has completed.  An smp_mb__before_spinlock(),
-     combined with a following ACQUIRE, orders prior loads against
-     subsequent loads and stores and also orders prior stores against
-     subsequent stores.  Note that this is weaker than smp_mb()!  The
-     smp_mb__before_spinlock() primitive is free on many architectures.
+     combined with a following ACQUIRE, orders prior stores against
+     subsequent loads and stores. Note that this is weaker than smp_mb()!
+     The smp_mb__before_spinlock() primitive is free on many architectures.
 
  (2) RELEASE operation implication:
 
@@ -1838,15 +1855,10 @@ RELEASE are to the same lock variable, but only from the perspective of
 another CPU not holding that lock.  In short, a ACQUIRE followed by an
 RELEASE may -not- be assumed to be a full memory barrier.
 
-Similarly, the reverse case of a RELEASE followed by an ACQUIRE does not
-imply a full memory barrier.  If it is necessary for a RELEASE-ACQUIRE
-pair to produce a full barrier, the ACQUIRE can be followed by an
-smp_mb__after_unlock_lock() invocation.  This will produce a full barrier
-if either (a) the RELEASE and the ACQUIRE are executed by the same
-CPU or task, or (b) the RELEASE and ACQUIRE act on the same variable.
-The smp_mb__after_unlock_lock() primitive is free on many architectures.
-Without smp_mb__after_unlock_lock(), the CPU's execution of the critical
-sections corresponding to the RELEASE and the ACQUIRE can cross, so that:
+Similarly, the reverse case of a RELEASE followed by an ACQUIRE does
+not imply a full memory barrier.  Therefore, the CPU's execution of the
+critical sections corresponding to the RELEASE and the ACQUIRE can cross,
+so that:
 
        *A = a;
        RELEASE M
@@ -1884,29 +1896,6 @@ the RELEASE would simply complete, thereby avoiding the deadlock.
        a sleep-unlock race, but the locking primitive needs to resolve
        such races properly in any case.
 
-With smp_mb__after_unlock_lock(), the two critical sections cannot overlap.
-For example, with the following code, the store to *A will always be
-seen by other CPUs before the store to *B:
-
-       *A = a;
-       RELEASE M
-       ACQUIRE N
-       smp_mb__after_unlock_lock();
-       *B = b;
-
-The operations will always occur in one of the following orders:
-
-       STORE *A, RELEASE, ACQUIRE, smp_mb__after_unlock_lock(), STORE *B
-       STORE *A, ACQUIRE, RELEASE, smp_mb__after_unlock_lock(), STORE *B
-       ACQUIRE, STORE *A, RELEASE, smp_mb__after_unlock_lock(), STORE *B
-
-If the RELEASE and ACQUIRE were instead both operating on the same lock
-variable, only the first of these alternatives can occur.  In addition,
-the more strongly ordered systems may rule out some of the above orders.
-But in any case, as noted earlier, the smp_mb__after_unlock_lock()
-ensures that the store to *A will always be seen as happening before
-the store to *B.
-
 Locks and semaphores may not provide any guarantee of ordering on UP compiled
 systems, and so cannot be counted on in such a situation to actually achieve
 anything at all - especially with respect to I/O accesses - unless combined
@@ -1975,7 +1964,7 @@ after it has altered the task state:
        CPU 1
        ===============================
        set_current_state();
-         set_mb();
+         smp_store_mb();
            STORE current->state
            <general barrier>
        LOAD event_indicated
@@ -2016,7 +2005,7 @@ between the STORE to indicate the event and the STORE to set TASK_RUNNING:
        CPU 1                           CPU 2
        =============================== ===============================
        set_current_state();            STORE event_indicated
-         set_mb();                     wake_up();
+         smp_store_mb();               wake_up();
            STORE current->state          <write barrier>
            <general barrier>             STORE current->state
        LOAD event_indicated
@@ -2116,12 +2105,12 @@ three CPUs; then should the following sequence of events occur:
 
        CPU 1                           CPU 2
        =============================== ===============================
-       ACCESS_ONCE(*A) = a;            ACCESS_ONCE(*E) = e;
+       WRITE_ONCE(*A, a);              WRITE_ONCE(*E, e);
        ACQUIRE M                       ACQUIRE Q
-       ACCESS_ONCE(*B) = b;            ACCESS_ONCE(*F) = f;
-       ACCESS_ONCE(*C) = c;            ACCESS_ONCE(*G) = g;
+       WRITE_ONCE(*B, b);              WRITE_ONCE(*F, f);
+       WRITE_ONCE(*C, c);              WRITE_ONCE(*G, g);
        RELEASE M                       RELEASE Q
-       ACCESS_ONCE(*D) = d;            ACCESS_ONCE(*H) = h;
+       WRITE_ONCE(*D, d);              WRITE_ONCE(*H, h);
 
 Then there is no guarantee as to what order CPU 3 will see the accesses to *A
 through *H occur in, other than the constraints imposed by the separate locks
@@ -2137,40 +2126,6 @@ But it won't see any of:
        *E, *F or *G following RELEASE Q
 
 
-However, if the following occurs:
-
-       CPU 1                           CPU 2
-       =============================== ===============================
-       ACCESS_ONCE(*A) = a;
-       ACQUIRE M                    [1]
-       ACCESS_ONCE(*B) = b;
-       ACCESS_ONCE(*C) = c;
-       RELEASE M            [1]
-       ACCESS_ONCE(*D) = d;            ACCESS_ONCE(*E) = e;
-                                       ACQUIRE M                    [2]
-                                       smp_mb__after_unlock_lock();
-                                       ACCESS_ONCE(*F) = f;
-                                       ACCESS_ONCE(*G) = g;
-                                       RELEASE M            [2]
-                                       ACCESS_ONCE(*H) = h;
-
-CPU 3 might see:
-
-       *E, ACQUIRE M [1], *C, *B, *A, RELEASE M [1],
-               ACQUIRE M [2], *H, *F, *G, RELEASE M [2], *D
-
-But assuming CPU 1 gets the lock first, CPU 3 won't see any of:
-
-       *B, *C, *D, *F, *G or *H preceding ACQUIRE M [1]
-       *A, *B or *C following RELEASE M [1]
-       *F, *G or *H preceding ACQUIRE M [2]
-       *A, *B, *C, *E, *F or *G following RELEASE M [2]
-
-Note that the smp_mb__after_unlock_lock() is critically important
-here: Without it CPU 3 might see some of the above orderings.
-Without smp_mb__after_unlock_lock(), the accesses are not guaranteed
-to be seen in order unless CPU 3 holds lock M.
-
 
 ACQUIRES VS I/O ACCESSES
 ------------------------
@@ -2373,9 +2328,7 @@ about the state (old or new) implies an SMP-conditional general memory barrier
 explicit lock operations, described later).  These include:
 
        xchg();
-       cmpxchg();
        atomic_xchg();                  atomic_long_xchg();
-       atomic_cmpxchg();               atomic_long_cmpxchg();
        atomic_inc_return();            atomic_long_inc_return();
        atomic_dec_return();            atomic_long_dec_return();
        atomic_add_return();            atomic_long_add_return();
@@ -2388,7 +2341,9 @@ explicit lock operations, described later).  These include:
        test_and_clear_bit();
        test_and_change_bit();
 
-       /* when succeeds (returns 1) */
+       /* when succeeds */
+       cmpxchg();
+       atomic_cmpxchg();               atomic_long_cmpxchg();
        atomic_add_unless();            atomic_long_add_unless();
 
 These are used for such things as implementing ACQUIRE-class and RELEASE-class
@@ -2871,11 +2826,11 @@ A programmer might take it for granted that the CPU will perform memory
 operations in exactly the order specified, so that if the CPU is, for example,
 given the following piece of code to execute:
 
-       a = ACCESS_ONCE(*A);
-       ACCESS_ONCE(*B) = b;
-       c = ACCESS_ONCE(*C);
-       d = ACCESS_ONCE(*D);
-       ACCESS_ONCE(*E) = e;
+       a = READ_ONCE(*A);
+       WRITE_ONCE(*B, b);
+       c = READ_ONCE(*C);
+       d = READ_ONCE(*D);
+       WRITE_ONCE(*E, e);
 
 they would then expect that the CPU will complete the memory operation for each
 instruction before moving on to the next one, leading to a definite sequence of
@@ -2922,12 +2877,12 @@ However, it is guaranteed that a CPU will be self-consistent: it will see its
 _own_ accesses appear to be correctly ordered, without the need for a memory
 barrier.  For instance with the following code:
 
-       U = ACCESS_ONCE(*A);
-       ACCESS_ONCE(*A) = V;
-       ACCESS_ONCE(*A) = W;
-       X = ACCESS_ONCE(*A);
-       ACCESS_ONCE(*A) = Y;
-       Z = ACCESS_ONCE(*A);
+       U = READ_ONCE(*A);
+       WRITE_ONCE(*A, V);
+       WRITE_ONCE(*A, W);
+       X = READ_ONCE(*A);
+       WRITE_ONCE(*A, Y);
+       Z = READ_ONCE(*A);
 
 and assuming no intervention by an external influence, it can be assumed that
 the final result will appear to be:
@@ -2943,13 +2898,14 @@ accesses:
        U=LOAD *A, STORE *A=V, STORE *A=W, X=LOAD *A, STORE *A=Y, Z=LOAD *A
 
 in that order, but, without intervention, the sequence may have almost any
-combination of elements combined or discarded, provided the program's view of
-the world remains consistent.  Note that ACCESS_ONCE() is -not- optional
-in the above example, as there are architectures where a given CPU might
-reorder successive loads to the same location.  On such architectures,
-ACCESS_ONCE() does whatever is necessary to prevent this, for example, on
-Itanium the volatile casts used by ACCESS_ONCE() cause GCC to emit the
-special ld.acq and st.rel instructions that prevent such reordering.
+combination of elements combined or discarded, provided the program's view
+of the world remains consistent.  Note that READ_ONCE() and WRITE_ONCE()
+are -not- optional in the above example, as there are architectures
+where a given CPU might reorder successive loads to the same location.
+On such architectures, READ_ONCE() and WRITE_ONCE() do whatever is
+necessary to prevent this, for example, on Itanium the volatile casts
+used by READ_ONCE() and WRITE_ONCE() cause GCC to emit the special ld.acq
+and st.rel instructions (respectively) that prevent such reordering.
 
 The compiler may also combine, discard or defer elements of the sequence before
 the CPU even sees them.
@@ -2963,13 +2919,14 @@ may be reduced to:
 
        *A = W;
 
-since, without either a write barrier or an ACCESS_ONCE(), it can be
+since, without either a write barrier or an WRITE_ONCE(), it can be
 assumed that the effect of the storage of V to *A is lost.  Similarly:
 
        *A = Y;
        Z = *A;
 
-may, without a memory barrier or an ACCESS_ONCE(), be reduced to:
+may, without a memory barrier or an READ_ONCE() and WRITE_ONCE(), be
+reduced to:
 
        *A = Y;
        Z = Y;