HashMap JDK1.8源码解读 链表+红黑树
程序员文章站
2022-06-04 18:56:22
...
记录自己学习的理解,以供日后查阅,欢迎指正不对之处!
HashMap是数组+链表+红黑树的数据结构
接下来我们一起开始学习HashMap源码
1、HashMap的继承关系:
HashMap继承AbstractMap,AbstractMap实现了Map的大部分方法,减少实现类的重复代码,新增实现类时只需要继承AbstractMap进行扩展就行了。实现了Map<K,V>, Cloneable, Serializable接口。(思考:AbstractMap实现了Map接口,为什么HashMap还要实现Map接口?查阅了很多资料,比较靠谱的答案是因为作者失误,并不存在具体的含义)
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {
2、HashMap的实例变量:
//序列化ID
private static final long serialVersionUID = 362498820763181265L;
//HashMap默认容量为16,1的二进制向左移4位,结果为16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//最大容量为2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认加载因子为0.75(为什么取0.75?这是通过大量测试,得出的时间和空间效率最高的一个值)
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//链表转化为红黑树的临界值为8,当链表长度超过8时,链表转化为红黑树
static final int TREEIFY_THRESHOLD = 8;
//红黑树转化为链表的临界值为6,当红黑树长度小于6时,红黑树转化为链表
static final int UNTREEIFY_THRESHOLD = 6;
//转化为红黑树的最小容量为64
static final int MIN_TREEIFY_CAPACITY = 64;
//存储数据的数组
transient Node<K,V>[] table;
//获得Entry集合
transient Set<Map.Entry<K,V>> entrySet;
//数组实际存储数据的大小
transient int size;
//数组被结构化修改的次数,用于fast-fail机制,解决多线程问题
transient int modCount;
//数组所能存放的组大数量,等于数组长度*加载因子
int threshold;
//加载因子
final float loadFactor;
3、构造函数
//无参构造,使用默认加载因子0.75
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
//指定容量,使用默认加载因子0.75
public HashMap(int initialCapacity) {
//调用指定容量和加载因子的构造函数
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//指定容量和加载因子的构造函数
public HashMap(int initialCapacity, float loadFactor) {
//判断容量合法性
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
//若容量大于最大值,则取最大值
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//判断加载因子合法性
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
//赋值
this.loadFactor = loadFactor;
//容量取大于指定容量数值的 第一个 2的幂的数
this.threshold = tableSizeFor(initialCapacity);
}
//创建一个包含Map参数的HashMap
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
4、相关方法
tableSizeFor方法
//cap为指定的容量大小,通过该方法得到大于指定容量数值的 第一个 2的幂的数
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
思考1:为什么HashMap容量要取2的幂的数?
涉及到根据Hash值算数组索引的问题,计算公式为(hash&inicap-1),
公式后面源码中会遇到,hash为hash值,inicap为数组长度(最大容量)。
假设现在有这几个hash值0001011,00000101,00000100,
如果数组容量为16,16-1得15二进制为00001111,
那么通过公式计算得到的二进制为0001011,00000101,00000100,也就是11,5,4
如果数组容量为15,15-1得14二进制为00001110,
那么通过公式计算得到的二进制为0001010,00000100,00000100,也就是10,4,4
如果数组容量为14,14-1得13二进制为00001101,
那么通过公式计算得到的二进制为0001001,00000100,00000100,也就是9,4,4
由上可知
当容量为奇数时,减1后,二进制最后一位为0,
那么&操作后得到的索引最后一位一定为0,也就是一定为偶数,
只有数组索引为偶数的才可能存放数据,那么这将浪费一半的空间。
当为偶数时,更能够让数据均匀的分布。
非2的幂时,计算得到同一个索引的概率很大,产生hash冲突的概率随之增大,
所以为了尽可能减少hash冲突,采用2的幂的数。
思考2:为什么计算之前要减1?
例如指定的容量为9、10、11、12、13、14、15其中一个数,
那么计算得到大于指定容量数值的 第一个 2的幂的数,都是16,没有问题。
但是,如果指定的是16呢?大于16的 第一个 2的幂的数是32,
显然16就已经是2的幂,得到32不合理。我们看如果先减一之后再计算,
16减1得15计算后得到16,9减1得到8,计算后仍然得到16,
都能够得到正确的值。这就是为什么要减1的原因。
putMapEntries方法
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
//存放复制的map数据大小
int s = m.size();
if (s > 0) {
//当table数组为null时,进行初始化
if (table == null) { // pre-size
//计算容量
float ft = ((float)s / loadFactor) + 1.0F;
//判断容量合法性
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
//取大于容量的第一个2的幂
threshold = tableSizeFor(t);
}
//如果当前数据量大于了容量临界值,进行扩容
else if (s > threshold)
resize();
//遍历每个entry得到key和value,添加的table中
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
putVal方法
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
resize方法
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
上一篇: hashMap遍历删除元素