jdk1.8 HashMap源码分析
程序员文章站
2022-06-04 19:22:52
...
HashMap
属性
// 实际存放数据的地方
// 当第一次使用的时候才会初始化,并且必要的时候会进行容量调整
// 但是table的长度永远都是2的指数次,原因之后会讲
// 从这里也可以看出,HashMap使用拉链法来解决碰撞
transient Node<K,V>[] table;
// HashMap的默认容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
// 装载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 将table每个位置看成一个bin,当某个bin上的链表的长度大于这个属性时,会将链表转换成红黑树,从而提高查询性能
static final int TREEIFY_THRESHOLD = 8;
// 当某个bin上的红黑树的节点个数小于这个属性时,会从红黑树转换成链表
static final int UNTREEIFY_THRESHOLD = 6;
// 当一个bin上的链表长度过长时,并不一定会转换成红黑树,只有当前的容量大于这个参数时,才会进行转换
// 否则会进行resize来扩大容量
static final int MIN_TREEIFY_CAPACITY = 64;
// 当hashMap中节点的总个数等于这个阈值时,需要进行resize来扩大容量,等于capacity*load factor
int threshold;
构造函数
构造函数最主要的地方就是,通过用户传入的初始容量来计算一个容量,作为之后使用的容量
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 这里会对传入的初始容量进行修改
this.threshold = tableSizeFor(initialCapacity);
}
详细看一下tableSizeFor方法
主要目的就是根据传入的初始容量计算得到一个2的指数次的容量
static final int tableSizeFor(int cap) {
// 假设n的出现1的位的最高位为第m位
int n = cap - 1;
// 经过这次操作,m,m-1位上都是1
n |= n >>> 1;
// 经过这次操作,m,m-1,m-2,m-3位上都是1
n |= n >>> 2;
// 经过这次操作,m,m-1,m-2,m-3,m-4,m-5,m-6,m-7位上都是1
n |= n >>> 4;
// 。。。
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
如果cap是2的m次,那么n的最高出现1的位就是第m-1位
例如:cap=4(100),n=3(011),最终经过5次移位之后,n=3,最终返回的结果是n+1=4
如果cap不是2的指数次,最高出现1的位为m
例如:cap=7(111),n=6(110),最终经过5次移位之后,n=7,最终返回结果是n+1=8
所以最终返回的容量是大于等于cap的最小的2的指数次
put
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
// 如果key是null,那么返回0,否则将调用key的hashCode()获得key的hash值,令该hash值和自身右移16位后的结果进行异或
// 之所以这么做是因为,在确定key的添加位置,我们需要使用hash的结果和hashmap的容量进行与操作,那么真正起作用的就只是低位,通过将高位和低位进行异或的结果作为hash值,可以减少碰撞
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 如果是第一次使用或者table的长度为0
// 需要进行resize,这个函数主要是用来为table分配初始空间或者扩大table容量的
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 使用按位与操作来替代取模操作,只有当n时2的指数次时,按位与操作和取模操作的结果才是一样的
// 这是table容量永远为2的指数次的原因之一
// 确定当前key属于哪个bin
// 如果当前bin为空,在该bin上创建一个头结点即可
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
// 当前bin上已经有数据了
// 下面的操作主要就是在寻找插入位置,
//
Node<K,V> e; K k;
// 当前bin上的链表的头结点的key和待插入的相同
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
// 当前bin上是红黑树,向红黑树中插入新的节点
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 遍历链表寻找插入位置
for (int binCount = 0; ; ++binCount) {
// 遍历到链表的末尾,仍然没有找到相同的key,那么在末尾插入新的节点
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 如果当前bin上的节点个数大于等于阈值,将链表转换成红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 在遍历过程中,遇到了相同的key,那么直接退出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 修改我们找到的节点的值
// e不为null代表原有的bin存在相同的key
// 这里根据onlyIfAbsent来决定是否更新value
if (e != null) { // existing mapping for key
V oldValue = e.value;
//
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果表中的总节点个数大于阈值,那么就进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
get
这里就是根据key定位到bin,然后从bin上找到key对应的node,返回node的value
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
remove
通过key定位到bin,然后找到key对应的node,然后删除,分三种情况:
(1)需要删除链表的头节点
(2)需要删除红黑树的节点
(3)需要删除链表中的节点
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
扩容
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
// 旧容量
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 旧的触发resize的阈值
int oldThr = threshold;
// 新的容量,下一次触发resize的阈值
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 从这里可以看出扩容容量扩大成原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
// 旧容量为0,并且阈值也为0,代表没有初始化,进行初始化
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 当进行扩容的时候,会重新为table分配一个空间
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 遍历每个bin
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 当前bin只有一个节点
if (e.next == null)
// 重新计算hash,放到新的table的对应bin中
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 红黑树处理
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 当前bin上是一个有多个节点的链表
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 遍历链上的节点
do {
next = e.next;
// 假设oldCap = 16
// oldCap - 1 = 15(1111)
// oldCap = 16(10000)
// newCap = 32(100000)
// newCap - 1 = 31(11111)
// newCap-1相较于oldCap-1在进行按位与运算的时候,其实就是在之前与运算的基础上再多计算一位
// loHead和loTail代表当前bin的头结点和尾结点
// hiHead和hiTail代表扩容后新创建的bin的头结点和尾结点
// 这两个bin的位置相差oldCap
// 这里是容量必须为2的指数次的另外一个原因,在resize对bin上的节点重新计算bin的时候,只需要计算一位即可
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
jdk1.7和jdk1.8的不同
- hash方法不同
jdk1.7 HashMap hash
static int hash(int h) {
// This function ensures that hashCodes that differ only by
// constant multiples at each bit position have a bounded
// number of collisions (approximately 8 at default load factor).
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
```.
2. jdk1.7使用的是头插法,jdk1.8使用的是尾插法。因为jdk1.7使用的是头插法,所以当多个线程同时进行resize时,可能会形成循环链,jdk1.8解决了这个问题
3. jdk1.7在进行resize时是重新计算位置的,而jdk1.8每个node只需要计算一位即可
jdk1.7HashMap put
4. jdk1.7使用的是数组+链表,而jdk1.8中使用的是数组+链表+红黑树
```java
public V put(K key, V value) {
if (key == null)
return putForNullKey(value);
int hash = hash(key.hashCode());
int i = indexFor(hash, table.length);
// 遍历当前bin上的链表
// 在链表上寻找是否有相同的key
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
addEntry(hash, key, value, i);
return null;
}
void addEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex];
// 直接将待添加的entry作为当前bin的头
// 因此使用的是头插法
table[bucketIndex] = new Entry<>(hash, key, value, e);
if (size++ >= threshold)
resize(2 * table.length);
}
因为jdk1.7中使用的是头插法,所以会导致resize时,形成循环链表,从而当调用get方法的时候造成死循环,而jdk1.8中改为使用尾插法,避免死循环
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
Entry[] newTable = new Entry[newCapacity];
transfer(newTable);
table = newTable;
threshold = (int)(newCapacity * loadFactor);
}
void transfer(Entry[] newTable) {
Entry[] src = table;
int newCapacity = newTable.length;
for (int j = 0; j < src.length; j++) {
Entry<K,V> e = src[j];
if (e != null) {
src[j] = null;
do {
Entry<K,V> next = e.next;
// 这里需要重新将hash和容量按位与
// jdk1.8中只需要多计算一位
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null);
}
}
}
static int indexFor(int h, int length) {
return h & (length-1);
}
上一篇: JDK1.8源码分析笔记-HashMap
下一篇: HashMap 分析