并发容器之ConcurrentLinkedQueue
本人免费整理了java高级资料,涵盖了java、redis、mongodb、mysql、zookeeper、spring cloud、dubbo高并发分布式等教程,一共30g,需要自己领取。
传送门:https://mp.weixin.qq.com/s/jzddfh-7ynudmkjt0irl8q
1.concurrentlinkedqueue简介
在单线程编程中我们会经常用到一些集合类,比如arraylist,hashmap等,但是这些类都不是线程安全的类。在面试中也经常会有一些考点,比如arraylist不是线程安全的,vector是线程安全。而保障vector线程安全的方式,是非常粗暴的在方法上用synchronized独占锁,将多线程执行变成串行化。要想将arraylist变成线程安全的也可以使用collections.synchronizedlist(list<t> list)
方法arraylist转换成线程安全的,但这种转换方式依然是通过synchronized修饰方法实现的,很显然这不是一种高效的方式,同时,队列也是我们常用的一种数据结构,为了解决线程安全的问题,doug lea大师为我们准备了concurrentlinkedqueue这个线程安全的队列。从类名就可以看的出来实现队列的数据结构是链式。
1.1 node
要想先学习concurrentlinkedqueue自然而然得先从它的节点类看起,明白它的底层数据结构。node类的源码为:
private static class node<e> { volatile e item; volatile node<e> next; ....... }
node节点主要包含了两个域:一个是数据域item,另一个是next指针,用于指向下一个节点从而构成链式队列。并且都是用volatile进行修饰的,以保证内存可见性。另外concurrentlinkedqueue含有这样两个成员变量:
private transient volatile node<e> head; private transient volatile node<e> tail;
说明concurrentlinkedqueue通过持有头尾指针进行管理队列。当我们调用无参构造器时,其源码为:
public concurrentlinkedqueue() { head = tail = new node<e>(null); }
head和tail指针会指向一个item域为null的节点,此时concurrentlinkedqueue状态如下图所示:
如图,head和tail指向同一个节点node0,该节点item域为null,next域为null。
1.2 操作node的几个cas操作
在队列进行出队入队的时候免不了对节点需要进行操作,在多线程就很容易出现线程安全的问题。可以看出在处理器指令集能够支持cmpxchg指令后,在java源码中涉及到并发处理都会使用cas操作,那么在concurrentlinkedqueue对node的cas操作有这样几个:
//更改node中的数据域item boolean casitem(e cmp, e val) { return unsafe.compareandswapobject(this, itemoffset, cmp, val); } //更改node中的指针域next void lazysetnext(node<e> val) { unsafe.putorderedobject(this, nextoffset, val); } //更改node中的指针域next boolean casnext(node<e> cmp, node<e> val) { return unsafe.compareandswapobject(this, nextoffset, cmp, val); }
可以看出这些方法实际上是通过调用unsafe实例的方法,unsafe为sun.misc.unsafe类,该类是hotspot底层方法,目前为止了解即可,知道cas的操作归根结底是由该类提供就好。
2.offer方法
对一个队列来说,插入满足fifo特性,插入元素总是在队列最末尾的地方进行插入,而取(移除)元素总是从队列的队头。所有要想能够彻底弄懂concurrentlinkedqueue自然而然是从offer方法和poll方法开始。那么为了能够理解offer方法,采用debug的方式来一行一行的看代码走。另外,在看多线程的代码时,可采用这样的思维方式:
单个线程offer 多个线程offer 部分线程offer,部分线程poll ----offer的速度快于poll --------队列长度会越来越长,由于offer节点总是在对队列队尾,而poll节点总是在队列对头,也就是说offer线程和poll线程两者并无“交集”,也就是说两类线程间并不会相互影响,这种情况站在相对速率的角度来看,也就是一个"单线程offer" ----offer的速度慢于poll --------poll的相对速率快于offer,也就是队头删的速度要快于队尾添加节点的速度,导致的结果就是队列长度会越来越短,而offer线程和poll线程就会出现“交集”,即那一时刻就可以称之为offer线程和poll线程同时操作的节点为 临界点 ,且在该节点offer线程和poll线程必定相互影响。根据在临界点时offer和poll发生的相对顺序又可从两个角度去思考:1. 执行顺序为offer-->poll-->offer,即表现为当offer线程在node1后插入node2时,此时poll线程已经将node1删除,这种情况很显然需要在offer方法中考虑; 2.执行顺序可能为:poll-->offer-->poll,即表现为当poll线程准备删除的节点为null时(队列为空队列),此时offer线程插入一个节点使得队列变为非空队列
先看这么一段代码:
1\. concurrentlinkedqueue<integer> queue = new concurrentlinkedqueue<>(); 2\. queue.offer(1); 3\. queue.offer(2);
创建一个concurrentlinkedqueue实例,先offer 1,然后再offer 2。offer的源码为:
public boolean offer(e e) { 1\. checknotnull(e); 2\. final node<e> newnode = new node<e>(e); 3\. for (node<e> t = tail, p = t;;) { 4\. node<e> q = p.next; 5\. if (q == null) { 6\. // p is last node 7\. if (p.casnext(null, newnode)) { // successful cas is the linearization point // for e to become an element of this queue, // and for newnode to become "live". 8\. if (p != t) // hop two nodes at a time 9\. castail(t, newnode); // failure is ok. 10\. return true; } // lost cas race to another thread; re-read next } 11\. else if (p == q) // we have fallen off list. if tail is unchanged, it // will also be off-list, in which case we need to // jump to head, from which all live nodes are always // reachable. else the new tail is a better bet. 12\. p = (t != (t = tail)) ? t : head; else // check for tail updates after two hops. 13\. p = (p != t && t != (t = tail)) ? t : q; } }
单线程执行角度分析:
先从单线程执行的角度看起,分析offer 1的过程。第1行代码会对是否为null进行判断,为null的话就直接抛出空指针异常,第2行代码将e包装成一个node类,第3行为for循环,只有初始化条件没有循环结束条件,这很符合cas的“套路”,在循环体cas操作成功会直接return返回,如果cas操作失败的话就在for循环中不断重试直至成功。
这里实例变量t被初始化为tail,p被初始化为t即tail。为了方便下面的理解,p被认为队列真正的尾节点,tail不一定指向对象真正的尾节点,因为在concurrentlinkedqueue中tail是被延迟更新的,具体原因我们慢慢来看。代码走到第3行的时候,t和p都分别指向初始化时创建的item域为null,next域为null的node0。
第4行变量q被赋值为null,第5行if判断为true,在第7行使用casnext将插入的node设置成当前队列尾节点p的next节点,如果cas操作失败,此次循环结束在下次循环中进行重试。cas操作成功走到第8行,此时p==t,if判断为false,直接return true返回。如果成功插入1的话,此时concurrentlinkedqueue的状态如下图所示:
如图,此时队列的尾节点应该为node1,而tail指向的节点依然还是node0,因此可以说明tail是延迟更新的。那么我们继续来看offer 2的时候的情况,很显然此时第4行q指向的节点不为null了,而是指向node1,第5行if判断为false,第11行if判断为false,代码会走到第13行。
好了,再插入节点的时候我们会问自己这样一个问题?上面已经解释了tail并不是指向队列真正的尾节点,那么在插入节点的时候,我们是不是应该最开始做的就是找到队列当前的尾节点在哪里才能插入?那么第13行代码就是找出队列真正的尾节点。
定位队列真正的对尾节点
p = (p != t && t != (t = tail)) ? t : q;
我们来分析一下这行代码,如果这段代码在单线程环境执行时,很显然由于p==t,此时p会被赋值为q,而q等于node<e> q = p.next
,即node1。在第一次循环中指针p指向了队列真正的队尾节点node1,那么在下一次循环中第4行q指向的节点为null,那么在第5行中if判断为true,那么在第7行依然通过casnext方法设置p节点的next为当前新增的node,接下来走到第8行,这个时候p!=t,第8行if判断为true,会通过castail(t, newnode)
将当前节点node设置为队列的队尾节点,此时的队列状态示意图如下图所示:
tail指向的节点由node0改变为node2,这里的castail失败不需要重试的原因是,offer代码中主要是通过p的next节点q(node<e> q = p.next
)决定后面的逻辑走向的,当castail失败时状态示意图如下
如图,如果这里castail设置tail失败即tail还是指向node0节点的话,无非就是多循环几次通过13行代码定位到队尾节点。
通过对单线程执行角度进行分析,我们可以了解到poll的执行逻辑为:
- 如果tail指向的节点的下一个节点(next域)为null的话,说明tail指向的节点即为队列真正的队尾节点,因此可以通过casnext插入当前待插入的节点,但此时tail并未变化,如图2;
- 如果tail指向的节点的下一个节点(next域)不为null的话,说明tail指向的节点不是队列的真正队尾节点。通过
q(node<e> q = p.next)
指针往前递进去找到队尾节点,然后通过casnext插入当前待插入的节点,并通过castail方式更改tail,如图3。
我们回过头再来看p = (p != t && t != (t = tail)) ? t : q;
这行代码在单线程中,这段代码永远不会将p赋值为t,那么这么写就不会有任何作用,那我们试着在多线程的情况下进行分析。
多线程执行角度分析
多个线程offer
很显然这么写另有深意,其实在多线程环境下这行代码很有意思的。 t != (t = tail)
这个操作并非一个原子操作,有这样一种情况:
如图,假设线程a此时读取了变量t,线程b刚好在这个时候offer一个node后,此时会修改tail指针,那么这个时候线程a再次执行t=tail时t会指向另外一个节点,很显然线程a前后两次读取的变量t指向的节点不相同,即t != (t = tail)
为true,并且由于t指向节点的变化p != t
也为true,此时该行代码的执行结果为p和t最新的t指针指向了同一个节点,并且此时t也是队列真正的对尾节点。那么,现在已经定位到队列真正的队尾节点,就可以执行offer操作了。
offer->poll->offer
那么还剩下第11行的代码我们没有分析,大致可以猜想到应该就是回答一部分线程offer,一部分poll的这种情况。当if (p == q)
为true时,说明p指向的节点的next也指向它自己,这种节点称之为哨兵节点,这种节点在队列中存在的价值不大,一般表示为要删除的节点或者是空节点。为了能够很好的理解这种情况,我们先看看poll方法的执行过程后,再回过头来看,总之这是一个很有意思的事情 :)。
3.poll方法
poll方法源码如下:
public e poll() { restartfromhead: 1\. for (;;) { 2\. for (node<e> h = head, p = h, q;;) { 3\. e item = p.item; 4\. if (item != null && p.casitem(item, null)) { // successful cas is the linearization point // for item to be removed from this queue. 5\. if (p != h) // hop two nodes at a time 6\. updatehead(h, ((q = p.next) != null) ? q : p); 7\. return item; } 8\. else if ((q = p.next) == null) { 9\. updatehead(h, p); 10\. return null; } 11\. else if (p == q) 12\. continue restartfromhead; else 13\. p = q; } } }
我们还是先站在单线程的角度去理清该方法的基本逻辑。假设concurrentlinkedqueue初始状态如下图所示:
参数offer时的定义,我们还是先将变量p作为队列要删除真正的队头节点,h(head)指向的节点并不一定是队列的队头节点。先来看poll出node1时的情况,由于p=h=head
,参照上图,很显然此时p指向的node1的数据域不为null,在第4行代码中item!=null
判断为true后接下来通过casitem
将node1的数据域设置为null。
如果cas设置失败则此次循环结束等待下一次循环进行重试。若第4行执行成功进入到第5行代码,此时p和h都指向node1,第5行if判断为false,然后直接到第7行return回node1的数据域1,方法运行结束,此时的队列状态如下图。
下面继续从队列中poll,很显然当前h和p指向的node1的数据域为null,那么第一件事就是要定位准备删除的队头节点(找到数据域不为null的节点)。
定位删除的队头节点
继续看,第三行代码item为null,第4行代码if判断为false,走到第8行代码(q = p.next
)if也为false,由于q指向了node2,在第11行的if判断也为false,因此代码走到了第13行,这个时候p和q共同指向了node2,也就找到了要删除的真正的队头节点。
可以总结出,定位待删除的队头节点的过程为:如果当前节点的数据域为null,很显然该节点不是待删除的节点,就用当前节点的下一个节点去试探。在经过第一次循环后,此时状态图为下图:
进行下一次循环,第4行的操作同上述,当前假设第4行中casitem设置成功,由于p已经指向了node2,而h还依旧指向node1,此时第5行的if判断为true,然后执行updatehead(h, ((q = p.next) != null) ? q : p)
,此时q指向的node3,所有传入updatehead方法的分别是指向node1的h引用和指向node3的q引用。updatehead方法的源码为:
final void updatehead(node<e> h, node<e> p) { if (h != p && cashead(h, p)) h.lazysetnext(h); }
该方法主要是通过cashead
将队列的head指向node3,并且通过 h.lazysetnext
将node1的next域指向它自己。最后在第7行代码中返回node2的值。此时队列的状态如下图所示:
node1的next域指向它自己,head指向了node3。如果队列为空队列的话,就会执行到代码的第8行(q = p.next) == null
,if判断为true,因此在第10行中直接返回null。以上的分析是从单线程执行的角度去看,也可以让我们了解poll的整体思路,现在来做一个总结:
- 如果当前head,h和p指向的节点的item不为null的话,说明该节点即为真正的队头节点(待删除节点),只需要通过casitem方法将item域设置为null,然后将原来的item直接返回即可。
- 如果当前head,h和p指向的节点的item为null的话,则说明该节点不是真正的待删除节点,那么应该做的就是寻找item不为null的节点。通过让q指向p的下一个节点(q = p.next)进行试探,若找到则通过updatehead方法更新head指向的节点以及构造哨兵节点(
通过updatehead方法的h.lazysetnext(h)
)。
接下来,按照上面分析offer的思维方式,下面来分析一下多线程的情况,第一种情况是;
多线程执行情况分析:
多个线程poll
现在回过头来看poll方法的源码,有这样一部分:
else if (p == q) continue restartfromhead;
这一部分就是处理多个线程poll的情况,q = p.next
也就是说q永远指向的是p的下一个节点,那么什么情况下会使得p,q指向同一个节点呢?根据上面我们的分析,只有p指向的节点在poll的时候转变成了哨兵节点(通过updatehead方法中的h.lazysetnext)。
当线程a在判断p==q
时,线程b已经将执行完poll方法将p指向的节点转换为哨兵节点并且head指向的节点已经发生了改变,所以就需要从restartfromhead处执行,保证用到的是最新的head。
poll->offer->poll
试想,还有这样一种情况,如果当前队列为空队列,线程a进行poll操作,同时线程b执行offer,然后线程a在执行poll,那么此时线程a返回的是null还是线程b刚插入的最新的那个节点呢?我们来写一代demo:
public static void main(string[] args) { thread thread1 = new thread(() -> { integer value = queue.poll(); system.out.println(thread.currentthread().getname() + " poll 的值为:" + value); system.out.println("queue当前是否为空队列:" + queue.isempty()); }); thread1.start(); thread thread2 = new thread(() -> { queue.offer(1); }); thread2.start(); }
输出结果为:
thread-0 poll 的值为:null queue当前是否为空队列:false
通过debug控制线程thread1和线程thread2的执行顺序,thread1先执行到第8行代码if ((q = p.next) == null)
,由于此时队列为空队列if判断为true,进入if块,此时先让thread1暂停,然后thread2进行offer插入值为1的节点后,thread2执行结束。再让thread1执行,这时thread1并没有进行重试,而是代码继续往下走,返回null,尽管此时队列由于thread2已经插入了值为1的新的节点。所以输出结果为thread0 poll的为null,然队列不为空队列。因此,在判断队列是否为空队列的时候是不能通过线程在poll的时候返回为null进行判断的,可以通过isempty方法进行判断。
4. offer方法中部分线程offer部分线程poll
在分析offer方法的时候我们还留下了一个问题,即对offer方法中第11行代码的理解。
offer->poll->offer
在offer方法的第11行代码if (p == q)
,能够让if判断为true的情况为p指向的节点为哨兵节点,而什么时候会构造哨兵节点呢?在对poll方法的讨论中,我们已经找到了答案,即当head指向的节点的item域为null时会寻找真正的队头节点,等到待插入的节点插入之后,会更新head,并且将原来head指向的节点设置为哨兵节点。假设队列初始状态如下图所示:
因此在线程a执行offer时,线程b执行poll就会存在如下一种情况:
如图,线程a的tail节点存在next节点node1,因此会通过引用q往前寻找队列真正的队尾节点,当执行到判断if (p == q)
时,此时线程b执行poll操作,在对线程b来说,head和p指向node0,由于node0的item域为null,同样会往前递进找到队列真正的队头节点node1,在线程b执行完poll之后,node0就会转换为哨兵节点,也就意味着队列的head发生了改变,此时队列状态为下图。
image.png
此时线程a在执行判断if (p == q)
时就为true,会继续执行p = (t != (t = tail)) ? t : head;
,由于tail指针没有发生改变所以p被赋值为head,重新从head开始完成插入操作。
5. hops的设计
通过上面对offer和poll方法的分析,我们发现tail和head是延迟更新的,两者更新触发时机为:
tail更新触发时机:当tail指向的节点的下一个节点不为null的时候,会执行定位队列真正的队尾节点的操作,找到队尾节点后完成插入之后才会通过castail进行tail更新;当tail指向的节点的下一个节点为null的时候,只插入节点不更新tail。
head更新触发时机:当head指向的节点的item域为null的时候,会执行定位队列真正的队头节点的操作,找到队头节点后完成删除之后才会通过updatehead进行head更新;当head指向的节点的item域不为null的时候,只删除节点不更新head。
并且在更新操作时,源码中会有注释为:hop two nodes at a time。所以这种延迟更新的策略就被叫做hops的大概原因是这个(猜的 :)),从上面更新时的状态图可以看出,head和tail的更新是“跳着的”即中间总是间隔了一个。那么这样设计的意图是什么呢?
如果让tail永远作为队列的队尾节点,实现的代码量会更少,而且逻辑更易懂。但是,这样做有一个缺点,**如果大量的入队操作,每次都要执行cas进行tail的更新,汇总起来对性能也会是大大的损耗。如果能减少cas更新的操作,无疑可以大大提升入队的操作效率,所以doug lea大师每间隔1次(tail和队尾节点的距离为1)进行才利用cas更新tail。
**对head的更新也是同样的道理,虽然,这样设计会多出在循环中定位队尾节点,但总体来说读的操作效率要远远高于写的性能,因此,多出来的在循环中定位尾节点的操作的性能损耗相对而言是很小的。
上一篇: SpringCloud有关Bug
下一篇: 苹果不削皮可以吃吗?当然也是可以不削皮的