欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

并发concurrent---3

程序员文章站 2022-12-17 13:19:17
背景:并发知识是一个程序员段位升级的体现,同样也是进入BAT的必经之路,有必要把并发知识重新梳理一遍。 ConcurrentHashMap:在有了并发的基础知识以后,再来研究concurrent包。普通的HashMap为非线程安全的,在高并发场景下要使用线程安全版本的ConcurrentHashMa ......

背景:并发知识是一个程序员段位升级的体现,同样也是进入bat的必经之路,有必要把并发知识重新梳理一遍。

concurrenthashmap
在有了并发的基础知识以后,再来研究concurrent包。普通的hashmap为非线程安全的,在高并发场景下要使用线程安全版本的concurrenthashmap;

众所周知hashtable可以保证线程安全但却效率低下,而hashmap是非线程安全但效率却高于hashtable,于是concurrenthashmap就孕育而生成为二者的结合体,为了更好的理解concurrenthashmap先看下这两个map。

hashmap

hashmap之所以具有很快的访问速度,因为它是根据键的hashcode值来存储数据,在大多数情况下可以直接定位到它的值,但遍历的顺序是不确定的;hashmap的key可以为null,但是最多只允许一条记录的键为null,另外允许多条记录(value)的值为null,key为null的键值对永远都放在一table[0]为头节点的链表中;hashmap为非线程安全的,适用于单线程环境下,即在任一时刻都可以有多个线程同时对hashmap进行读或写操作,可以会导致数据的不一致;如果一定要使用hashmap又要保证线程安全,则可以用collection的synchronizedmap方法或concurrenthashmap都ok;hashmap是基于哈希实表实现的,每一个元素是一个key-value对,其内部通过单链表结局冲突问题的,当map容量不足(超过了阀值)时链表会自动增长;hashmap实现了serializable接口,因此其支持序列化,并且实现了cloneable接口,可以被克隆;

hashmap存储数据的过程:

hashmap内部维护了一个存储数据的entry数组,hashmap采用链表解决冲突,每一个entry本质上其实是一个单向链表;当要添加一个key-value对时,首先会通过hash(key)方法技术hash值,然后通过indexfor(hash,length)求该key-value对的存储位置,其计算方法是先用hash&0x7fffffff后,再对length取模,这就保证了每一个key-value对都能存入hashmap,当计算出相同的位置是,由于存入位置是一个链表,所以把这个key-value对插入链表头。

并发concurrent---3

如上图1 所示,最左边竖列排的多个方格就代表哈希表,也叫哈希数组,数组的每个元素都是一个单链表的头节点,链表是用来解决冲突的,如果不同的key映射到了数组的同一位置处,就将其放入单链表中;hashmap内存储数据的entry数组默认是16,如果没有对entry扩容机制的话,当存储的数据一多,entry内部的链表会很长,这就失去了hashmap的存储意义了,所以hasnmap内部有自己的扩容机制(当size大于threshold时,对hashmap进行扩容)。 上图2 是hashmap的链表存储结构,其中e*代表一个node节点,每个node节点就对应着一个key-value的mapping映射;每个node除了保存了key和value的映射之外,还保存了它下一node的引用(eb保存了ebb的引用,而ebb保存了ebbb的引用);图2中,每一个链表如ec-->ecc-->eccc,这三个节点的key是不相等的。

分析hashmap源码会发现其内部有几个重要的变量如:size用于记录hashmap的底层数组中已用槽的数量、threshold用于hashmap的阈值判断,看是否需要调整hashmap的容量(threshold = 容量*加载因子)、default_load_factor = 0.75f,即加载因子默认0.75。 hashmap的扩容是是新建了一个hashmap的底层数组,通过调用transfer方法,将就hashmap的全部元素添加到新的hashmap中(此步需要重新计算元素在新的数组中的索引位置,导致hashmap扩容成为一个相当耗时的操作),so我们在用hashmap的时,最好能提前预估下hashmap中元素的个数,这样有助于提高hashmap的性能

hashtable
hashmap的功能与hashmap类似,如同样是基于哈希表实现的、内部也是通过单链表解决冲突问题、容量不足时也会自动增加、同样实现了seriablizable接口支持序列化、实现了cloneable接口可克隆;不同的是hashtable继承自dictionary类且为线程安全的(任一时间只有一个线程可以写hashtable,但性能不如

concurrenthashmap),而hashmap继承abstractmap类且非线程安全。

并发concurrent---3

如图3,hashtable只有一把锁,当一个线程访问hashtable的同步方法时,会将整张table 锁住,当其他线程也想访问hashtable 同步方法时,就会进入阻塞或轮询状态。也就是确保同一时间只有一个线程对同步方法的占用,避免多个线程同时对数据的修改,由此确保线程的安全性;但hashtable 对get,put,remove 方法都使用了同步操作,这就造成如果两个线程都只想使用get 方法去读取数据时,因为一个线程先到进行了锁操作,另一个线程就不得不等待,这样必然导致效率低下,而且竞争越激烈,效率越低下。

concurrenthashmap(并发且线程安全)

concourrenthashmap是通过分段锁技术来保证线程安全的[case:一个人到酒店开房可直接在前台办理入住,三个陌生人到酒店开房登记入住,另外两个则要先排队等第一个办理结束(普通的map),要是三个人所住的每个楼层都有一个可以办理入住的前台就无需排队了(concurrenthashmap)];concurrenthashmap主要由segment(桶)和hashentry(节点)两大数据组成,如下图:

并发concurrent---3

在hashmap 的基础上,concurrenthashmap将数据分为多个segment(默认16个),然后每次操作对一个segment 加锁,hashtable 在竞争激烈的并发环境下表现出效率低下的原因是由于所有访问hashtable的线程都必须竞争同一把锁,而concurrenthashmap将数据分到多个segment 中(默认16,也可在申明时自己设置,不过一旦设定就不能更改,扩容都是扩充各个segment 的容量),由于每个segment 都有一个自己的锁,只要多个线程访问的不是同一个segment 就没有锁争用,就没有堵塞,也就是允许16个线程并发的更新并且不存在锁争用现象。除此之外,concurrenthashmap的segment就类似一个hashtable,但比hashtable又更进一步优化,因为hashtable对get,put,remove方法都会使用锁,而concurrnethashmap中get方法是不涉及到锁的;并且concurrenthashmap内部在并发读取时,除了key 对应的value为null的情况下会用到锁,其它的场景下都没有用到锁,所以对于读操作无论多少线程并发都是安全高效的。