目录
1、CPU性能优化-缓存
CPU的三级缓存
缓存同步协议
2、CPU性能优化-运行时指令重排
3、两个问题:
4、内存屏障
5、总结:
1、CPU性能优化-缓存
CPU的三级缓存为了提高程序的运行性能,现代CPU在很多方面对程序进行了优化。
例如,高速缓存。尽可能的避免处理器访问主内存的时间开销,处理器大多会利用缓存来提高性能。访问速度:cup处理器的缓存>内存>硬盘
L1Cache(一级缓存)是CPU第一级高级缓存,分为数据缓存和指令缓存。一般服务器CPU的L1缓存容量通常在32-4096KB.
L2由于L1级高速缓存的容量限制,为了再次提高CPU的运算速度,在CPU外部放置一高速存储器,即二级缓存。
L3现在都是内置的。而它的实际作用是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理队列长度。一般是多核共享一个L3缓存。
CPU在查询数据的时候,查找顺序: L1、L2、L3、内存、外部存储器。
缓存同步协议那么问题来了,多个CPU读取同样的数据进行缓存,进行不同的运算后,最终写入主内存以哪个CPU为准?
在这种高速缓存回写的场景下,有一个缓存一致性协议,多数CPU厂商对它进行了实现。
MESI协议:它规定每条缓存一个状态位,同时定义了下面四个状态:
修改态(Modified):此Cache行已被修改过(脏行),内容已不同于主内存,为此Cache专有。
专有态(Exclusive):此cache行内容同于主内存,但不出现于其他cache中。
共享态(Shared):此cache行内容同与主内存,但也出现在其他与其他cache中。
无效态(invalid):此cache行内容无效(空行)。
多处理器时,单个CPU对缓存中的数据进行改动,需要通知给其他CPU。
也就意味着,CPU处理要控制自己的读写 *** 作,还要监听其他CPU发出的通知,从而保证最终一致。
2、CPU性能优化-运行时指令重排为什么要去指令重排呢?
指令重排的场景:当CPU写缓存时发现缓存区块正被其他CPU占用,需要等待。为了提高CPU的处理性能,可能将后面的读缓存命令优先执行。
比如L3(三级缓存)就是多个CPU共用的。
并非随便重排,需要遵循as-if-serial语义 ,这个语义是指:不管怎么重排序(编译器和处理器为了提高并行度),(单线程)程序的执行结果不能被改变。编译器,runtime和处理器都必须遵守as-if-serial语义。也就是说编译器和处理器不会对存在数据依赖关系的 *** 作做重排序。
3、两个问题:1、CPU高速缓存下有一个问题:
缓存中的数据与主内存的数据并不是实时同步的,各CPU(或CPU核心)间缓存的数据也不是实时同步的。在同一时间点,各CPU所看到同一内存地址的数据的值可能是不一致的。
2、CPU执行指令重排序优化有一个问题:
要遵循as-if-serial语义,仅仅在单CPU自己执行的情况下能保证结果正确。
多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果错误。
怎么解决这两个问题?
4、内存屏障处理器提供两个内存屏障指令(Memory Barrier)用于解决上述两个问题:
5、总结:写内存屏障(Store Memory Barrier):在指令后面插入Store Barrier(写内存屏障指令),能让写入缓存中的最新数据更新写入主内存,让其他线程可见。
强制写入主内存,这种显示调用,CPU就不会因为性能考虑而去对指令重排序,
通俗意思:多核多线程中,写 *** 作强制执行写入主内存,读 *** 作给我等着,前面的写 *** 作执行完了,再去读
读内存屏障(Load Memory Barrier):在指令前插入Load Barrier,可以让高速缓存中的数据失效,强制重新从主内存中加载数据。
强制读取主内存内容,让CPU缓存与主内存保持一致,避免了缓存导致的一致性问题
本章了解即可,为后面JVM线程安全问题做铺垫。
同时,也看到现代CPU不断演进,在程序运行优化中做出的努力。
不同CPU厂商所付出的人力物力成本,最终体现在不同CPU的性能差距上。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)