欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

走进Java Map家族 (1) - HashMap实现原理分析

程序员文章站 2022-06-19 19:10:49
在Java世界里,有一个古老而神秘的家族——Map。从底层架构到上层应用,他们活跃于世界的每一个角落。但是,每次出现时,他们都戴着一张冷硬的面具(接口),深深隐藏着自己的内心。所有人都认识他们,却并非每个人都理解他们。在这个热闹的世界中,Map们活得光荣却孤独……这个系列博文,就将尝试透过接口的伪装 ......

在java世界里,有一个古老而神秘的家族——map。从底层架构到上层应用,他们活跃于世界的每一个角落。但是,每次出现时,他们都戴着一张冷硬的面具(接口),深深隐藏着自己的内心。所有人都认识他们,却并非每个人都理解他们。在这个热闹的世界中,map们活得光荣却孤独……这个系列博文,就将尝试透过接口的伪装,走进每个家族成员的内心世界,聆听家族内部的动人传说……

注:各种map在不同的jdk中有不同的实现。如无特别声明,本文只针对当前(2019年3月)最新的openjdk(13-ea)的实现

 

一、从hashmap开始

好了,上面都是扯淡,目的是为了让气氛更加尴尬……

第一个介绍的map成员是hashmap,因为它应用最广,实现也最简单——简单到我一直在纠结要不要单独为它写一篇文章。代码在这里

http://hg.openjdk.java.net/jdk/jdk/file/5529640c5f67/src/java.base/share/classes/java/util/hashmap.java

hashmap将键值对存储于若干个bin中。所谓bin(或者叫bucket、桶),是一个可以保存多个键值对的数据结构。初始状态下,一个bin就是一个链表。具体代码如下

static class node<k,v> implements map.entry<k,v> {
    final int hash;
    final k key;
    v value;
    node<k,v> next;
}

transient node<k,v>[] table;

node类是链表的元素。变量table是一个链表的数组,或者说是bin的数组。hashmap所有的数据就保存在table中。(或许你注意到了transient关键字。hashmap并不直接序列化table变量,而是重写了writeobject和readobject处理数据的序列化)

当向hashmap中put数据时,首先计算key的hashcode,根据hashcode找到它所属的bin,然后将键值对放入bin中,也就是插入到链表的末尾。可见,有相同hashcode的两个key,一定会放入同一个bin中,这种现象叫hash冲突(hash collision)。而get的过程也一样,计算key的hashcode并找到对应的bin,然后在bin中搜索包含相同key的node。

以上是hashmap的基本实现原理。

 

二、扩容(resize)与树化(treeify)

可见,put和get消耗的时间与链表长度是o(n)的关系。如果数据量太大,每一个链表都会很长;或者运气太差,大部分数据都集中于一个bin中,这时hashmap的性能就会迅速下降。怎么办呢?

有两种思路,要么是缩短链表长度,要么是提高bin的搜索速度。hashmap的具体策略也是从这两方面入手。每次put数据时,都记录map中整体的数据量,以及链表的长度,然后

(1)当整体数据量超过bin的数量的3/4时,增加bin的数量,这个过程叫扩容(resize)。扩容后,各条数据都要重新计算它属于哪个bin,这叫做rehash。这样,有些数据移动到新的bin中,各个bin的链表长度就会缩短。

(2)当某个链表很长(超过7),而bin的数量很少(小于等于64个),也会扩容,以缩短链表。

(3)当某个链表长度超过7,而bin的数量大于64个,就将这个bin由链表转变为红黑树,提高搜索速度。这个过程叫做树化(treeify)。树化是在jdk 1.8才实现的。

为什么不一开始就使用树呢?个人理解,这是出于时间-空间的综合考量。当数据量很小时,树的搜索速度并不明显优于链表,而占用的空间却比链表多,因此初始选择是链表,遇到性能瓶颈也优先选择扩容。

而当bin足够多时,继续扩容就会出现问题:

(1)继续扩容也会增加空间占用(而且占用的是连续空间。还记得table是一个数组吗?)。相比于树化,扩容不再具有空间上的优势。

(2)resize之后要对所有的数据做rehash,当数据量很大时,rehash的性能负担远高于对单个bin做树化。

可以说,扩容改变所有数据的分布方式,是一种针对整体的优化方案;树化只改变单个bin的结构,是针对局部的优化方案。如果bin很多却依然存在很长的链表,说明整体优化方案对于某个bin不起作用,这可能是hashcode分布不均匀导致的。继续扩容徒然增加空间,效果却不见得理想。这时,就该采用局部优化方案,也就是树化了。

以上纯属个人理解与猜测,仅供参考。

最后说一点,bin的数量并非到了64之后就不再增长了。根据策略(1),只要整体数据量足够多,就会扩容。不过,扩容也不是无限的,毕竟数组太大了也会造成问题。bin的最大数量是2的30次方,或者写成1<<<30。

 

三、hashcode与扩容策略

如何根据hashcode找到数据所属的bin?每次扩容增大多少?如何rehash?这几个问题互相关联。

最简单的方案当然是取余。假设bin的数量为n,key的hashcode为h,那么key所属的bin就是第h%n个。而扩容可以任意增加bin的数量。比如扩容后的bin有n+m个,rehash时某个key所属的bin是第h%(n+m)个。

这种方法可以实现功能,但性能不好,rehash阶段会非常耗时。而且有可能两个bin中的数据被rehash到同一个bin中,从而构建了一个比以前更长的链表。而openjdk采用的方法则颇具技巧性,充分利用了高效的位运算。

/****开始说正事的分割线****/

openjdk要求bin的数量必须是2的整数幂,即1<<<n个(乘以2和左移一位等价,乘以n个2和左移n位等价)。初始状态n=4,即bin的初始数量是2的4次方,或者是1左移四位的结果,也就是16个。

有了这个要求,许多事情就变得简单了。

如何resize呢?为了保证上述条件成立,每次扩容,bin的数量都变为2倍。如果当前bin的数量为1<<<n,扩容一次后bin的数量是1<<<(n+1)。

一个key应该属于哪个bin呢?如果key的hashcode是h,bin的数量是b=1<<<n,则key所属的bin是第h^(b-1)个。也就是截取了hashcode最后的n位,如下图所示

 走进Java Map家族 (1) - HashMap实现原理分析

这种计算bin的方式与取余的结果实际是相同的。但是它利用了位运算,效率高于取余。而且这种方式对rehash很友好。

扩容之后,bin的数量是b'=1<<<(n+1)=b<<<1 。rehash前,key所属的bin是b1=h^(b-1),它是hashcode截取后n位的结果;rehash之后,key所属的bin是b2=h^(b'- 1),他是hashcode截取后n+1位的结果。可见,rehash前后的差异只在hashcode的第n+1位,也就是h^b'的结果。因此有

(1)如果h^b'==0,则rehash后这个key的位置不变

(2)如果h^b'==1,则rehash后这个key所属的bin是b2=b1+b。也就是将b1的第n+1位由0变为1

整个rehash过程,全部使用位运算以及一次简单的加法运算,保证了最高效率。而且两个bin的数据不会rehash到同一个bin中,也不会把数据rehash到一个扩容前就存在的bin中,保证了所有的bin在扩容后都不可能变得更长。

最后再说一个问题,hashcode如何计算?方法如下

static final int hash(object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashcode()) ^ (h >>> 16);
}

将hashcode()方法的结果的高16位与低16位做and运算。为什么不直接用hashcode()方法的结果呢?openjdk的解释是,开发者可能用double做为key,如果各个浮点数之间差别很小,那么它们的低位将相同。而bin的位置是由hashcode的低n位决定的。这种情况下,大量的数据将进入同一个bin,发生大量hash冲突,严重影响性能。于是,openjdk最终选择了高位低位混淆的方案。据说,这种方案得到的hashcode满足泊松分布(虽然我不知道为什么会满足),分布很均匀。

 

四、关于树的二三趣事

比起链表,红黑树更复杂,也要处理更多的问题和细节。可能这就是java拖到1.8才实现树化的原因吧。许多关于树的问题并不重要,不影响整体思路,但细细品味很有意思。所以在最后写上一些。

(1)是一棵树,也是链表

树化后,新生成的树其实保持着原有链表的结构和顺序。它既是树,也是链表。树的节点用类treenode表示,贴一段treenode的声明

static final class treenode<k,v> extends linkedhashmap.entry<k,v> {
    treenode<k,v> parent;  // red-black tree links
    treenode<k,v> left;
    treenode<k,v> right;
    treenode<k,v> prev;    // needed to unlink next upon deletion
    boolean red;
}

treenode间接继承自链表节点类node,所以它也是链表节点。看到声明中的prev了吗?它不仅是链表,还是双向链表。

这么做意义何在呢?首先是方便遍历,我们大概都写过类似的代码

map<integer, string> m = new hashmap<>();
...
iterator<entry<integer, string>> it = m.entryset().iterator();
while(it.hasnext()) {
    it.next();
}

iterator的底层就是沿着链表的顺序遍历的。遍历链表,比遍历一棵树要高效得多。

然后,是方便逆树化(untreeify)。链表太长了会树化成一棵树。可树中的数据量可能因为resize或者remove而减少,数据太少了,树就会逆树化成一个链表。因为链表结构没有丢,逆树化就非常简单了。

(2)根节点在哪?

树的节点类treenode是链表节点类node的子类。因此,树化不用改变table变量的类型

transient node<k,v>[] table;

数组里的node,我们称它为首节点(first node)。它可能表示链表,也可能表示树。如果是链表,首节点当然就是头节点。可如果是树,首节点是哪个节点呢?根节点(root)吗?不一定。

大部分情况下首节点都是红黑树的根节点,因为每次改变树的结构时,都会调用下面的movetofront方法将根移动到table数组里

 1 static <k,v> void moveroottofront(node<k,v>[] tab, treenode<k,v> root) {
 2   int n;
 3   if (root != null && tab != null && (n = tab.length) > 0) {
 4     int index = (n - 1) & root.hash;
 5     treenode<k,v> first = (treenode<k,v>)tab[index];
 6     if (root != first) {
 7       node<k,v> rn;
 8       tab[index] = root;
 9       treenode<k,v> rp = root.prev;
10       if ((rn = root.next) != null)
11         ((treenode<k,v>)rn).prev = rp;
12       if (rp != null)
13         rp.next = rn;
14       if (first != null)
15         first.prev = root;
16       root.next = first;
17       root.prev = null;
18     }
19        assert checkinvariants(root);
20   }
21 }

代码涉及到很多细节,只想了解基本思路的话,无需都看懂。但请注意第8行,root被放到table中。这时,根节点就是首节点了。

但是,有一个例外情况,就是在iterator中remove一个数据时

map<integer, string> m = new hashmap<>();
...
iterator<entry<integer, string>> it = m.entryset().iterator();
it.remove();

为什么呢?注意movetofront方法的第10-17行,改变了一些节点的next和prev指针,也就是改变了链表的顺序。因为root节点必须同时是链表的头节点。但是,(1)中说过,iterator是靠链表遍历的,因此它不能随便改变链表的顺序,也就不会移动root。

这里需要多说一句,虽然单个bin中的数据构成链表,但不同bin的数据却没有联系,而且moveroottofront还会改变链表顺序。因此,hashmap不是一个有序的数据结构。

(3)树中的数据如何比较

红黑树中的数据必须是可以比较的。那么hashmap的树如何比较呢。比较顺序如下:

a. 首先,比较key的hashcode;

b. 如果hashcode相同,检查key是否是comparable的。是的话,直接比较key;

c. 如果key不是comparable的,或者两个key比较结果相同,则比较两个key各自的类的字符创,即 key.getclass().getname()//看看你把jdk逼成什么样了 ;

d. 如果还是相同,就比较两个key的system.identityhashcode。

可见,从第三步起,事情就变得莫名诡异起来了。这也说明了,使用hashmap时,key最好是comparable类型的,对性能有益。

 

五、最后吐个槽

本文是一篇薄码文,贴的代码很少。因为大多数代码比较长,又涉及诸多细节,不好看也无益于理解整体思路。

但是,从少数的代码中大概可以体会到,openjdk的代码质量真的不高。随处可见魔幻的变量声明和鬼畜的代码格式,就是照着写业务代码有可能会被打死的那种。学习jdk源码的主要目的是了解细节,方便开发。如果抱着参考优秀代码的目的,那你算来错了地方。

当然,这种底层的*,也许开发者更多考虑的是性能和可靠性,至于可读性或许并不那么重要。