内存屏障由来及实现思路
很多人知道内存屏障这个东西应该是在学习volatile时看到的,但是对内存屏障依然存在很多疑惑:为什么要加内存屏障?内存屏障能解决什么问题?为什么能解决这些问题?
最近在研究volatile的过程中发现内存屏障这东西如果不搞明白,java中的volatile就别想学透,所以花了较长时间来研究这块。看了很多资料,写了很多代码测试,这篇文章就来总结下我目前认知中的内存屏障。
01 cpu缓存
如果你不了解讲内存屏障为什么要讲cpu缓存,接着往后看。
学过《计算机组成原理》的同学应该都听过一个词:时钟周期。什么是时钟周期呢?通俗点来讲就是cpu完成一个基本动作需要的时间周期。对硬件有点认识的同学都知道看cpu好不好一定要看的一个参数:多少多少ghz。这个ghz跟时钟周期之间是存在一定的换算关系的,感兴趣的同学可以去自行研究。说明一下:不了解这层换算关系不影响你看后面的内容,只要你对时钟周期有一个基本认知就可以了。
在很早以前,cpu里面是没有缓存这块区域的,就是cpu直接读写内存。那后面为什么在cpu中增加了缓存呢?因为cpu的运行效率与读写内存的效率存在着巨大的鸿沟,在读写内存过程中带来的等待浪费了很大的cpu算力。现在最新的内存是ddr4规格,但是向内存中写入数据,据权威资料,需要107个cpu时钟周期,即cpu的运行效率是写内存的107倍。如果cpu只执行写操作需要一个时钟周期,那cpu等待这个写完成需要等待106个时钟周期,是不是很浪费cpu算力?那如何解决呢?就跟我们工作中发现mysql出现读写瓶颈如何解决是一样的思维:加缓存。
拿我们今天主流的cpu架构来说,现在的cpu主要采用三层缓存:
l1、l2缓存成为本地核心内缓存,即一个核一个。如果你的机器是4核,那就是有4个l1+4个l2
l3缓存是所有核共享的。即不管你的cpu是几核,这个cpu中只有一个l3
l1缓存的大小是64k,即32k指令缓存+32k数据缓存。l2是256k,l3是2m。这不是绝对的,目前intel cpu基本是这样的设计
这里还补充一个知识点:缓存行(cache-line)。缓存行是cpu缓存存储数据的最小单位,大小为64b。这块如果展开来讲要讲很久很久,本篇文章就不展开讲了,有兴趣的同学可以自行研究。如果你没有学习过计算机硬件相关知识,可能看不懂。
根据哲学的矛盾相对论:任何问题的解决方案都是一个利与弊共存的矛盾体。加缓存的确有效提升了cpu的执行效率,但是cpu缓存间的数据一致性、cpu缓存与内存间的数据一致性就是不得不去思考与解决的问题了。而且还得保证解决这两层数据一致性的效率要高于不加缓存前浪费的cpu算力,不然这个方案就是一套伪方案:听起来高大上,不解决问题。
02 缓存的一致性
mesi协议就是为了保证cpu各核的缓存、内存间的数据一致性而生的,没有了解过的可以百度普及一下,这个比较简单。这里拓展两点:
一、cpu运算单元与l1缓存间为什么要增加buffer?cpu实现各个核的缓存与内存间的数据一致性的思路有点像socket的三次握手:cpu0修改了某个数据,需要广播告诉其他cpu,这时候cpu0进入阻塞状态等待其他cpu修改其缓存中的状态,待其他cpu都修改完状态返回应答消息后才进入运行状态。虽然这个阻塞的时间很短,但是在cpu的世界里就很长了,为了保证这部分阻塞时间也能得到充分利用,于是加入了buffer。将预读信息存储进去,这样cpu解除阻塞后就可以直接从buffer拿出请求处理。
二、mesi协议的实现思路是:如果cpu0修改了某个数据,需要广播给其他cpu,缓存中没有这个数据的cpu丢弃这个广播消息,缓存中有这个数据的cpu监听到这个广播后会将相应的缓存行改为invalid状态,这样cpu在下次读取这个数据的时候发现缓存行失效,就去内存中读取。这里面童鞋们有没有发现一个问题:只要存在数据修改,cpu就需要去内存取数据,那为什么不实现cpu缓存能共享数据呢?这样cpu在下次读取的时候去cpu0的缓存行去读取就可以啦,而且性能更高。现在的cpu也的确实现了这个思路,对应的协议就是:amd的moesi、intel的mesif。感兴趣的童鞋自己去研究吧。
03 内存屏障的由来
对于cpu的写,目前主流策略有两种:
1、write back:即cpu向内存写数据时,先把真实数据放入store buffer中,待到某个合适的时间点,cpu才会将store buffer中的数据刷到内存中,而且这两个操作是异步的。这在多线程环境中,有些情况下是可以接受的,但是有些情况是不可接受的,为了让程序员有能力根据业务需要达到同步完成,就设计了内存屏障。关于内存屏障,后面会细讲。
2、write through:即cpu向内存写数据时,同步完成写store buffer与内存。
当前cpu大多数采用的是write back策略。可能有童鞋要问了:为什么呢?因为大多数情况下,cpu异步完成写内存产生的部分延迟是可以接受的,而且这个延迟极短。只有在多线程环境下需要严格保证内存可见等极少数特殊情况下才需要保证cpu的写在外界看来是同步完成的,需要借助cpu提供的内存屏障实现。如果直接采用策略2:write through,那每次写内存都需要等待数据刷入内存,极大影响了cpu的执行效率。
04 内存屏障实现思路
为什么要插入屏障?本质是业务层面不能接受写store buffer与刷回内存这两个异步操作产生的哪怕是极少的延迟,即对内存可见性的要求极高。
内存屏障到底是什么?内存屏障什么都不是,它只是一个抽象概念,就像oop。如果这样说你不理解,那你把他理解成一堵墙,这堵墙正面与反面的指令无法被cpu乱序执行及这堵墙正面与反面的读写操作需有序执行。
cpu提供了三个汇编指令串行化运行读写指令达到实现保证读写有序性的目的:
sfence
:在该指令前的写操作必须在该指令后的写操作前完成
lfence
:在该指令前的读操作必须在该指令后的读操作前完成
mfence
:在该指令前的读写操作必须在该指令后的读写操作前完成
何谓串行化?你可以理解成cpu把读、写、读写请求放入了一个队列,按照先进先出的顺序执行下去;何谓读操作完成,即cpu执行一次读操作,把值读到了寄存器中;何谓写操作完成,即cpu执行一次写操作,数据刷到内存中了。
到这里就把内存屏障讲清楚了,你悟了吗?
以上就是内存屏障由来及实现思路的详细内容,更多关于内存屏障的资料请关注其它相关文章!
上一篇: DIY从入门到放弃:内存标签能看出假货?