欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

全面解析Java中的HashMap类

程序员文章站 2024-03-11 16:48:43
hashmap 和 hashset 是 java collection framework 的两个重要成员,其中 hashmap 是 map 接口的常用实现类,hashse...

hashmap 和 hashset 是 java collection framework 的两个重要成员,其中 hashmap 是 map 接口的常用实现类,hashset 是 set 接口的常用实现类。虽然 hashmap 和 hashset 实现的接口规范不同,但它们底层的 hash 存储机制完全一样,甚至 hashset 本身就采用 hashmap 来实现的。
实际上,hashset 和 hashmap 之间有很多相似之处,对于 hashset 而言,系统采用 hash 算法决定集合元素的存储位置,这样可以保证能快速存、取集合元素;对于 hashmap 而言,系统 key-value 当成一个整体进行处理,系统总是根据 hash 算法来计算 key-value 的存储位置,这样可以保证能快速存、取 map 的 key-value 对。
在介绍集合存储之前需要指出一点:虽然集合号称存储的是 java 对象,但实际上并不会真正将 java 对象放入 set 集合中,只是在 set 集合中保留这些对象的引用而言。也就是说:java 集合实际上是多个引用变量所组成的集合,这些引用变量指向实际的 java 对象。

一、hashmap的基本特性

读完jdk源码hashmap.class中的注释部分,可以总结出很多hashmap的特性。

hashmap允许key与value都为null, 而hashtable是不允许的。

hashmap是线程不安全的, 而hashtable是线程安全的

hashmap中的元素顺序不是一直不变的,随着时间的推移,同一元素的位置也可能改变(resize的情况)

遍历hashmap的时间复杂度与其的容量(capacity)和现有元素的个数(size)成正比。如果要保证遍历的高效性,初始容量(capacity)不能设置太高或者平衡因子(load factor)不能设置太低。

与之前的相关list同样, 由于hashmap是线程不安全的, 因此迭代器在迭代过程中试图做容器结构上的改变的时候, 会产生fail-fast。通过collections.synchronizedmap(hashmap)可以得到一个同步的hashmap

二、hash table 数据结构分析

hash table(散列表,哈希表),是根据关键字而直接访问内存存储位置的数据结构。也就是说散列表建立了关键字和存储地址之间的一种直接映射

如下图, key经过散列函数得到buckets的一个索引位置。

全面解析Java中的HashMap类

通过散列函数获取index不可避免会出现相同的情况,也就是冲突。下面简单介绍几种解决冲突的方法:

open addressing(开放定址法):此方法的基本思想就是遇到冲突时,顺序扫描表下n个位置,如果有空闲就填入。具体算法不再说明,下面是示意图:

全面解析Java中的HashMap类

separate chaining(拉链):此方法基本思想就是遇到冲突时,将相同索引值的entry用链表串起来。具体算法不再说明,下面是示意图:

全面解析Java中的HashMap类

jdk中的hashmap解决冲突的方法就是用的separate chaining法。

三、hashmap源码分析(jdk1.7)

1、hashmap读写元素

entry
hashmap中的存放的元素是entry类型,下面给出源码中entry的源码:

static class entry<k,v> implements map.entry<k,v> {
 final k key;
 v value;
 entry<k,v> next;
 int hash;
 entry(int h, k k, v v, entry<k,v> n) {
  value = v;
  next = n;
  key = k;
  hash = h;
 }
 //key, value的get与set方法省略,get与set操作会在后面的迭代器中用到
 ...
 public final boolean equals(object o) {
  if (!(o instanceof map.entry))
  return false;
  map.entry e = (map.entry)o;
  object k1 = getkey();
  object k2 = e.getkey();
  if (k1 == k2 || (k1 != null && k1.equals(k2))) {
  object v1 = getvalue();
  object v2 = e.getvalue();
  if (v1 == v2 || (v1 != null && v1.equals(v2)))
   return true;
  }
  return false;
 }
 //此处将key的hashcode与value的hashcode做亦或运算得到entry的hashcode
 public final int hashcode() {
  return objects.hashcode(getkey()) ^ objects.hashcode(getvalue());
 }
 public final string tostring() {
  return getkey() + "=" + getvalue();
 }
 /**
  * this method is invoked whenever the value in an entry is
  * overwritten by an invocation of put(k,v) for a key k that's already
  * in the hashmap.
  */
 void recordaccess(hashmap<k,v> m) {
 }
 /**
  * this method is invoked whenever the entry is
  * removed from the table.
  */
 void recordremoval(hashmap<k,v> m) {
 }
 }

一个entry包括key, value, hash以及下一个entry的引用, 很明显这是个单链表, 其实现了map.entry接口。

recordacess(hashmap<k, v> 与recordremoval(hashmap<k, v>)在hashmap中是没有任何具体实现的。但是在linkedhashmap这两个方法用来实现lru算法。

get:读元素
从hashmap中获取相应的entry, 下面给出get相关源码:

public v get(object key) {
 //key是null的情况
 if (key == null)
  return getfornullkey();
 //根据key查找entry
 entry<k,v> entry = getentry(key);
 return null == entry ? null : entry.getvalue();
 }

getfornullkey源码

private v getfornullkey() {
 if (size == 0) {
  return null;
 }
 //遍历冲突链
 for (entry<k,v> e = table[0]; e != null; e = e.next) {
  if (e.key == null)
  return e.value;
 }
 return null;
 }

key为null的entry存放在table[0]中,但是table[0]中的冲突链中不一定存在key为null, 因此需要遍历。

根据key获取entry:

final entry<k,v> getentry(object key) {
 if (size == 0) {
  return null;
 }
 int hash = (key == null) ? 0 : hash(key);
 //通过hash得到table中的索引位置,然后遍历冲突链表找到key
 for (entry<k,v> e = table[indexfor(hash, table.length)];
  e != null;
  e = e.next) {
  object k;
  if (e.hash == hash &&
  ((k = e.key) == key || (key != null && key.equals(k))))
  return e;
 }
 return null;
 }

以上就是hashmap读取一个entry的过程及其源码。时间复杂度o(1)

put:写元素
hashmap中put操作相对复杂, 因为put操作的过程中会有hashmap的扩容操作。
新写入一个元素,如果hashmap中存在要写入元素的key,则执行的是替换value的操作,相当于update。下面是put源码:

public v put(k key, v value) {
 //空表table的话,根据size的阈值填充
 if (table == empty_table) {
  inflatetable(threshold);
 }
 //填充key为null的entry
 if (key == null)
  return putfornullkey(value);
 //生成hash,得到索引index的映射
 int hash = hash(key);
 int i = indexfor(hash, table.length);
 //遍历当前索引的冲突链,找是否存在对应的key
 for (entry<k,v> e = table[i]; e != null; e = e.next) {
  object k;
  //如果存在对应的key, 则替换oldvalue并返回oldvalue
  if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
  v oldvalue = e.value;
  e.value = value;
  e.recordaccess(this);
  return oldvalue;
  }
 }
 //冲突链中不存在新写入的entry的key
 modcount++;
 //插入一个新的entry
 addentry(hash, key, value, i);
 return null;
 }

addentry与createentry源码:

void addentry(int hash, k key, v value, int bucketindex) {
 //插入新entry前,先对当前hashmap的size和其阈值大小的判断,选择是否扩容
 if ((size >= threshold) && (null != table[bucketindex])) {
  resize(2 * table.length);
  hash = (null != key) ? hash(key) : 0;
  bucketindex = indexfor(hash, table.length);
 }
 createentry(hash, key, value, bucketindex);
 }
 void createentry(int hash, k key, v value, int bucketindex) {
 entry<k,v> e = table[bucketindex];
 //头插法,新写入的entry插入当前索引位置的冲突链第一个entry的前面
 table[bucketindex] = new entry<>(hash, key, value, e);
 size++;
 }

以上就是hashmap写入一个entry的过程及其源码。时间复杂度o(1)

remove移除元素:

final entry<k,v> removeentryforkey(object key) {
 if (size == 0) {
  return null;
 }
 //根据key计算hash值,获取索引
 int hash = (key == null) ? 0 : hash(key);
 int i = indexfor(hash, table.length);
 //链表的删除,定义两个指针,pre表示前驱
 entry<k,v> prev = table[i];
 entry<k,v> e = prev;
 //遍历冲突链,删除所有为key的enrty
 while (e != null) {
  entry<k,v> next = e.next;
  object k;
  //找到了
  if (e.hash == hash &&
  ((k = e.key) == key || (key != null && key.equals(k)))) {
  modcount++;
  size--;
  //找到第一个结点就是要删除的结点
  if (prev == e)
   table[i] = next;
  else
   prev.next = next;
  e.recordremoval(this);
  return e;
  }
  prev = e;
  e = next;
 }
 return e;
 }

以上就是hashmap删除一个entry的过程及其源码。时间复杂度o(1)

2、hashmap的哈希原理(hash function)

hashmap中散列函数的实现是通过hash(object k) 与 indexfor(int h, int length)完成, 下面看下源码:

 final int hash(object k) {
 int h = hashseed;
 if (0 != h && k instanceof string) {
  return sun.misc.hashing.stringhash32((string) k);
 }
 h ^= k.hashcode();
 // this function ensures that hashcodes that differ only by
 // constant multiples at each bit position have a bounded
 // number of collisions (approximately 8 at default load factor).
 //为了降低冲突的几率
 h ^= (h >>> 20) ^ (h >>> 12);
 return h ^ (h >>> 7) ^ (h >>> 4);
 }

获取index索引源码:

static int indexfor(int h, int length) {
 // assert integer.bitcount(length) == 1 : "length must be a non-zero power of 2";
 return h & (length-1);
 }

hashmap通过一个hash function将key映射到[0, table.length]的区间内的索引。这样的索引方法大体有两种:

hash(key) % table.length, 其中length必须为素数。jdk中hashtable利用此实现方式。
具体使用素数的原因,可以查找相关算法资料证明,这里不再陈述。

hash(key) & (table.length - 1 ) 其中length必须为2指数次方。jdk中hashmap利用此实现方式。
因为length的大小为2指数次方倍, 因此 hash(key) & (table.length - 1)总会在[0, length - 1]之间。但是仅仅这样做的话会出现问题一个冲突很大的问题,因为java中hashcode的值为32位,当hashmap的容量偏小,例如16时,做异或运算时,高位总是被舍弃,低位运算后却增加了冲突发生的概率。

因此为了降低冲突发生的概率, 代码中做了很多位运算以及异或运算。

3、hashmap内存分配策略

成员变量capacity与loadfactor
hashmap中要求容量capacity是2的指数倍, 默认容量是1 << 4 = 16。hashmap中还存在一个平衡因子(loadfactor),过高的因子会降低存储空间但是查找(lookup,包括hashmap中的put与get方法)的时间就会增加。 loadfactor默认值为0.75是权衡了时间复杂度以及空间复杂度给出的最优值。

 static final int default_initial_capacity = 1 << 4; // aka 16
 static final int maximum_capacity = 1 << 30;
 static final float default_load_factor = 0.75f;

hashmap的构造函数
hashmap的构造就是设置capacity,与loadfactor的初始值

public hashmap(int initialcapacity, float loadfactor) {
 if (initialcapacity < 0)
  throw new illegalargumentexception("illegal initial capacity: " +
      initialcapacity);
 if (initialcapacity > maximum_capacity)
  initialcapacity = maximum_capacity;
 if (loadfactor <= 0 || float.isnan(loadfactor))
  throw new illegalargumentexception("illegal load factor: " +
      loadfactor);
 this.loadfactor = loadfactor;
 threshold = initialcapacity;
 init();
 }

之前说过hashmap中capacity必须是2的指数倍, 构造函数里并没有限制,那如何保证保证capacity的值是2的指数倍呢?
在put操作时候,源码中会判断目前的哈希表是否是空表,如果是则调用inflatetable(int tosize)

private void inflatetable(int tosize) {
 // find a power of 2 >= tosize
 int capacity = rounduptopowerof2(tosize);
 threshold = (int) math.min(capacity * loadfactor, maximum_capacity + 1);
 table = new entry[capacity];
 inithashseedasneeded(capacity);
 }

其中rounduptopowerof2就是获取大于等于给定参数的最小的2的n次幂

private static int rounduptopowerof2(int number) {
 // assert number >= 0 : "number must be non-negative";
 return number >= maximum_capacity
  ? maximum_capacity
  : (number > 1) ? integer.highestonebit((number - 1) << 1) : 1;
 }

integer.hightestonebit(int)是将给定参数的最高位的1保留,剩下的变为0的操作,简单说就是将参数int变为小于等于它的最大的2的n次幂。

若number为2的n次幂,减1后最高位处于原来的次高位, 再左移1位仍然可以定位到最高位位置
若number不是2的n次幂,减1左移1位后最高位仍是原来的最高位

扩容:
hashmap在put操作的时候会发生resize行为,具体源码如下:

void resize(int newcapacity) {
 entry[] oldtable = table;
 int oldcapacity = oldtable.length;
 //哈希表已达到最大容量,1 << 30
 if (oldcapacity == maximum_capacity) {
  threshold = integer.max_value;
  return;
 }
 entry[] newtable = new entry[newcapacity];
 //将oldtable中的entry转移到newtable中
 //inithashseedasneeded的返回值决定是否重新计算hash值
 transfer(newtable, inithashseedasneeded(newcapacity));
 table = newtable;
 //重新计算threshold
 threshold = (int)math.min(newcapacity * loadfactor, maximum_capacity + 1);
 }
void transfer(entry[] newtable, boolean rehash) {
 int newcapacity = newtable.length;
 //遍历oldtable
 for (entry<k,v> e : table) {
  //遍历冲突链
  while(null != e) {
  entry<k,v> next = e.next;
  if (rehash) {
   //重新计算hash值
   e.hash = null == e.key ? 0 : hash(e.key);
  }
  int i = indexfor(e.hash, newcapacity);
  //将元素插入到头部,头插法
  e.next = newtable[i];
  newtable[i] = e;
  e = next;
  }
 }
 }

以上就是hashmap内存分配的整个过程,总结说来就是,hashmap在put一个entry的时候会检查当前容量与threshold的大小来选择是否扩容。每次扩容的大小是2 * table.length。在扩容期间会根据inithashseedasneeded判断是否需要重新计算hash值。

四、hashmap的迭代器

hashmap中的valueiterator, keyiterator, entryiterator等迭代器都是基于hashiterator的,下面看下它的源码:

private abstract class hashiterator<e> implements iterator<e> {
 entry<k,v> next; // next entry to return
 int expectedmodcount; // for fast-fail
 int index;  // current slot,table index
 entry<k,v> current; // current entry
 hashiterator() {
  expectedmodcount = modcount;
  //在哈希表中找到第一个entry
  if (size > 0) { 
  entry[] t = table;
  while (index < t.length && (next = t[index++]) == null)
   ;
  }
 }
 public final boolean hasnext() {
  return next != null;
 }
 final entry<k,v> nextentry() {
  //hashmap是非线程安全的,遍历时仍然先判断是否有表结构的修改
  if (modcount != expectedmodcount)
  throw new concurrentmodificationexception();
  entry<k,v> e = next;
  if (e == null)
  throw new nosuchelementexception();
  if ((next = e.next) == null) {
  //找到下一个entry
  entry[] t = table;
  while (index < t.length && (next = t[index++]) == null)
   ;
  }
  current = e;
  return e;
 }
 public void remove() {
  if (current == null)
  throw new illegalstateexception();
  if (modcount != expectedmodcount)
  throw new concurrentmodificationexception();
  object k = current.key;
  current = null;
  hashmap.this.removeentryforkey(k);
  expectedmodcount = modcount;
 }
 }

key, value, entry这个三个迭代器进行封装就变成了keyset, values, entryset三种集合视角。这三种集合视角都支持对hashmap的remove, removeall, clear操作,不支持add, addall操作。