volatile
- 线程可见性问题
public class VolatileExample { public static volatile boolean stop = false; public static void main(String[] args) throws InterruptedException { Thread t1 = new Thread(() ->{ int i = 0; //活性失败 while (!stop){ i++; System.out.println(i); // try { // Thread.sleep(0); // } catch (InterruptedException e) { // e.printStackTrace(); // } } }); t1.start(); System.out.println("begin start thread"); Thread.sleep(1000); stop=true; } }
-
了解可见性本质
CPU资源利用问题
- CPU增加高速缓存
- *** 作系统中,增加进程、线程。->通过CPU的时间片的切换,提升CPU利用率。
- 编译器(JVM的深度优化)
- CPU增加高速缓存
-
从cpu层面了解可见性有序性问题
-
JVM模型
-
Happens-Before模型
伪共享问题缓存行
多个线程访问缓存行,某一个线程获得锁访问此缓存行时会将其他置为失效;影响性能。(空间换时间概念,每次线程访问都会加载缓存行)
对齐填充(@Contended注解)
解决不断让缓存失效,不断从内存中加载的问题
填充在基础上填充空的,就不会有其他的线程来竞争
缓存一致性问题-
总线锁
-
缓存锁:通过降低锁的范围来增加效率
- 缓存一致性协议(MESI、MOSI)
- MESI表示缓存的四种状态(修改 、失效、独占、共享):共享的时候需要把所有的置为失效才能进行修改(共享在各个核心CPU中的高速缓存失效,在进行修改,保证一致性),比如修改a=1时,先将缓存中置为失效在修改主内存中的值;每个线程都会对主线程进行监视。
cpu->cache-缓存锁、总线锁(总线上加一个互斥锁)(Lock)->主内存
不支持缓存锁的情况下架总线锁(volatile)
CPU层面、JVM层面,优化执行的执行顺序
CPU层面如何导致指令重排序CPU把数据存入store buffer中,(异步)在同时通知其他CPU此缓存行失效,不影响后续的指令 *** 作,最后 *** 作数据再存入主线程中。不需要等待,直接往下走(内存屏障)
单线程的重排序不影响结果。
将数据加载到storebuffer中,再通过指令将其他cpu中的缓存行失效,但不影响下面的指令 *** 作(直接读取缓存行的数据),指令完成后其他CPU返回的值更新,同步到缓存以及内存中(保持一致);最后再读取缓存行的数据(此时已经同步)
store forwarding/store buffer 内存屏障CPU层面不知道什么时候不允许优化,什么时候允许优化
解决可见性问题(全屏障,读屏障、写屏障)
- 读屏障(lfence)load
- 写屏障(sfence)save
- 全屏障(mfence)mix
linux:
smp_rmb-写屏障方法
smp_wmb-读屏障方法
smp_mb-读写屏障
Lock- 缓存锁/总线锁
- 内存屏障的问题
在不同的CPU框架中,实现内存屏障的指令不同
- Lock
- StroeBuffrer
- LoadBuffer
volatile:解决多线程下的可见性问题,用到了内存屏障,用到了缓存锁
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)