HashMap源码分析
2021/9/14 22:05:10
本文主要是介绍HashMap源码分析,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
目录
- 一、简介
- 二、底层结构
- 1. JDK1.7 HashMap 由 **数组+链表** 组成
- 2.JDK1.8 HashMap 由 **数组+链表+红黑树** 组成
- 三、源码分析
- 1.重要字段
- 2.存储的数据---Node节点
- 3.计算索引位置---hash() + 路由寻址
- 3.1 hash()方法
- 3.2 路由寻址公式
- 4.哈希冲突
- 5.构造方法
- 6.插入节点---put()与putVal()方法
- 7.获取节点值---get()与getNode()方法
- 8.扩容机制---resize()方法
- 8.1确定新数组的长度与新阈值
- 8.2 旧数组的数据拷贝到新数组
- 8.3 与JDK1.7的resize()对比
- 9.线程安全性(死循环)
- 参考文献:
一、简介
散列表(也叫哈希表),是一种根据散列函数(也叫哈希函数、hash函数)处理关键码值映射出索引位置的数组。散列函数一般通过取模的方式来实现。
JDK1.8 之前 HashMap 由 数组+链表 组成的,数组是 HashMap 的主体,链表则是主要为了解决哈希冲突而存在的(“拉链法”解决冲突)。 JDK1.8 以后采用 数组+链表+红黑树 的结构。1.8的HashMap 在解决哈希冲突时有了较大的变化,当链表长度大于阈值(默认为 8)且数组长度达到64时,将链表转化为红黑树,以减少搜索时间。
二、底层结构
1. JDK1.7 HashMap 由 数组+链表 组成
Enry<K,V>节点:上图中,每个绿色的实体是嵌套类 Entry 的实例,Entry 包含四个属性:key, value, hash 值和用于单向链表的 next。
2.JDK1.8 HashMap 由 数组+链表+红黑树 组成
需要注意的是:
- 数组长度>=64,并且链表长度>8的时候,会树化;若只是链表长度达到了8,数组长度没达到64,只会先数组扩容;
- 红黑树节点个数<6 的时候,会转换为链表。
三、源码分析
1.重要字段
首先,我们先来看一下HashMap里的重要属性。
// 默认的初始容量 16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 最大容量,1左移30位 static final int MAXIMUM_CAPACITY = 1 << 30; // 默认扩容因子 0.75 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 链表转红黑树的链表长度 static final int TREEIFY_THRESHOLD = 8; // 红黑树转链表的阈值 static final int UNTREEIFY_THRESHOLD = 6; // 链表转红黑树的数组长度 static final int MIN_TREEIFY_CAPACITY = 64; // 实际存储Node节点的个数 transient int size; // 记录HashMap被改动的次数,由于HashMap非线程安全,modCount可用于FailFast机制 transient int modCount; // 扩容阈值,默认16*0.75=12,当填充到13个元素时,扩容后将会变为32, int threshold; // 负载因子 loadFactor=capacity*threshold,HashMap扩容需要参考loadFactor的值 final float loadFactor;
- loadFactor 加载因子:
loadFactor 加载因子是控制数组存放数据的疏密程度,loadFactor 越趋近于 1,那么 数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor 越小,也就是趋近于 0,数组中存放的数据Node也就越少,也就越稀疏。
loadFactor 太大导致链化严重,查找元素效率低;太小导致数组的利用率低,存放的数据会很分散。loadFactor 的默认值为 0.75f 是官方给出的一个比较好的临界值。
给定的默认容量为 16,加载因子为 0.75。Map 在使用过程中不断的往里面存放数据,当threshold数量达到 16 * 0.75 = 12 就需要将当前 16 的容量进行扩容,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。
- threshold扩容阈值:
threshold = capacity * loadFactor
,当实际节点个数 Size >= threshold的时候,那么就要考虑对数组的扩增了,也就是说,threshold就是衡量数组是否需要扩增的一个标准。
2.存储的数据—Node节点
然后,需要明白两个问题:数据底层具体存储的是什么?当我们要插入或者删除数据的时候,是通过什么方式来获取索引位置的呢?
HashMap的主体是一个哈希桶数组,它的字段 transient Node[] table
,可以看出是一个Node的数组。我们来看Node[JDK1.8]是何物。
static class Node<K,V> implements Map.Entry<K,V> { final int hash; //用来定位数组索引位置 final K key; V value; Node<K,V> next; //链表的下一个node Node(int hash, K key, V value, Node<K,V> next) { ... } public final K getKey(){ ... } public final V getValue() { ... } public final String toString() { ... } public final int hashCode() { ... } public final V setValue(V newValue) { ... } public final boolean equals(Object o) { ... } }
Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(Key-Value键值对)。
所以每次插入的数据都是就是一个Node对象。当然,在JDK1.7版本中,是直接使用的Entry。
3.计算索引位置—hash() + 路由寻址
当我们需要增加、删除或者查找Node的时候,定位到哈希桶数组的位置都是很关键的第一步。那么,HashMap是通过什么方式来找到索引的呢?
HashMap主要是通过 hash()方法 + 路由寻址h & (table.length -1)
的方式来求得索引位置的。
3.1 hash()方法
hash()方法也叫做散列函数、扰动函数…
// 方法一(JDK1.8): static final int hash(Object key) { //jdk1.8 & jdk1.7 int h; // h = key.hashCode() 第一步 取hashCode值 // h ^ (h >>> 16) 第二步 高位参与运算 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } // hashCode():返回一个哈希码值 public native int hashCode(); // 方法一(JDK1.7): static int hash(int h) { h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } // 方法二: static int indexFor(int h, int length) { //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的 return h & (length-1); //第三步 取模运算 }
可以看到,计算索引分为三步:取key的hashCode值、高位运算、取模运算;在JDK8 中,前两步由hash()方法来完成,最后一步在putVal()、getNode()等方法里实现。
-
取key的hashCode值:hashCode()是一个native方法,而且返回值类型是 32位 的int型的哈希码值。实际上,该native方法将对象在内存中的地址作为哈希码返回,可以保证不同对象的返回值不同(这句话,有待考证,是我从一篇博客上看的)。
-
高位运算
(h = key.hashCode()) ^ (h >>> 16)
:因为hashCode()返回值类型是 32位 的int型,右移16位可以让哈希值的高16位参与运算可以更好的均匀散列,减少碰撞,进一步降低hash冲突的几率。
相比于 JDK1.8 的 hash 方法 ,JDK 1.7 的 hash 方法的性能会稍差一点点,因为毕竟扰动了 4 次。
3.2 路由寻址公式
经过hash()方法处理过的散列值,需要通过路由寻址算法h & (table.length -1)
,来计算索引值。
- 取模运算:通过路由寻址公式
h & (table.length -1)
来实现。(table.length -1)
相当于一个“低位掩码”,“与”操作的结果就是哈希码值的高位全部归零,只保留低位值,且位运算比取余%运算要快。
因为HashMap数组长度都是取2的整数幂。以初始长度16为例,16-1=15。2进制表示是0 0000000 00000000 00001111。和某散列值做“与”操作如下,结果就是截取了最低的四位值。
10100101 11000100 00100101 & 00000000 00000000 00001111 ---------------------------------- 00000000 00000000 00000101 //高位全部归零,只保留末四位
总的来说,在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16)
,主要是从速度、功效、质量来考虑的。这么做可以在数组table的长度比较小的时候,也能保证考虑到高低位都参与到Hash的计算中,降低hash冲突,同时不会有太大的开销。
下面举例说明下,n为table的长度。
4.哈希冲突
前面已经知道,HashMap的存储结构。HashMap就是使用哈希表来存储的,但哈希表会伴随有哈希冲突。所谓哈希冲突,就是把大于数组容量的多个节点通过映射的方式存放在数组里,不管怎么映射,总会存在一个桶位,放多个节点数据的情况。就好像抽屉原理,要把十个苹果更平均的放到九个抽屉里,无论怎样放,我们会发现至少会有一个抽屉里面至少放两个苹果。
解决方法:可以采用开放地址法和拉链法等来解决问题,Java中HashMap采用了拉链法(也叫链地址、链表法)。 “拉链法” :将链表和数组相结合。也就是说创建一个链表数组,数组中每一格就是一个链表。若遇到哈希冲突,则将冲突的值加到链表中即可。
当然,如前文所说,如果链表长度过长时,查询效率也会变慢。JDK1.8 以后在解决哈希冲突时有了较大的变化。当**链表长度大于阈值(默认为 8)**时,会首先调用 treeifyBin()
方法。这个方法会根据 HashMap 数组来决定是否转换为红黑树。只有当数组长度大于或者等于 64 的情况下,调用treeify()
方法,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是执行 resize()
方法对数组扩容。
5.构造方法
// 默认构造函数。 public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } // 包含另一个“Map”的构造函数 public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false);//下面会分析到这个方法 } // 指定“容量大小”的构造函数 public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } // 指定“容量大小”和“加载因子”的构造函数 public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); // 调整初始容量满足2^n } final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { int s = m.size(); if (s > 0) { // 判断table是否已经初始化 if (table == null) { // pre-size // 未初始化,s为m的实际元素个数 float ft = ((float)s / loadFactor) + 1.0F; int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY); // 计算得到的t大于阈值,则初始化阈值 if (t > threshold) threshold = tableSizeFor(t); } // 已初始化,并且m元素个数大于阈值,进行扩容处理 else if (s > threshold) resize(); // 将m中的所有元素添加至HashMap中 for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { K key = e.getKey(); V value = e.getValue(); putVal(hash(key), key, value, false, evict); } } }
HashMap的初始化,那HashMap怎么设定初始容量大小?
一般如果new HashMap()
不传值,默认大小是16,负载因子是0.75。 如果自己传入初始大小k,k不为2的n方。为了满足数组长度为2^n,则会自动初始化大小为大于k的2的整数次方,例如如果传10,初始化大小就变为16。主要是通过tableSizeFor()方法实现的:
static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
下图是详细过程,算法就是让初始二进制右移1,2,4,8,16位,分别与自己按位 或运算,把高位第一个为1的数通过不断右移,把高位为1的后面全变为1,最后再进行+1操作,111111+1=1000000=2^6。
6.插入节点—put()与putVal()方法
HashMap 只提供了 put ()方法用于添加元素,putVal ()方法只是给 put ()方法调用的一个方法,并没有提供给用户使用。
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; // table未初始化或者长度为0,进行扩容 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; // (n - 1) & hash 确定元素存放在哪个桶中,桶为空,新生成结点放入桶中(此时,这个结点是放在数组中) if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); // 桶中已经存在元素 else { Node<K,V> e; K k; // 比较桶中第一个元素(数组中的结点)的hash值相等,key相等 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) // 将第一个元素赋值给e,用e来记录 e = p; // hash值不相等,即key不相等;为红黑树结点 else if (p instanceof TreeNode) // 放入树中 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); // 为链表结点 else { // 在链表最末插入结点 for (int binCount = 0; ; ++binCount) { // 到达链表的尾部 if ((e = p.next) == null) { // 在尾部插入新结点 p.next = newNode(hash, key, value, null); // 结点数量达到阈值(默认为 8 ),执行 treeifyBin 方法 // 这个方法会根据 HashMap 数组来决定是否转换为红黑树。 // 只有当数组长度大于或者等于 64 的情况下,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是对数组扩容。 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); // 跳出循环 break; } // 判断链表中结点的key值与插入的元素的key值是否相等 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) // 相等,跳出循环 break; // 用于遍历桶中的链表,与前面的e = p.next组合,可以遍历链表 p = e; } } // 表示在桶中找到key值、hash值与插入元素相等的结点 if (e != null) { // 记录e的value V oldValue = e.value; // onlyIfAbsent为false或者旧值为null if (!onlyIfAbsent || oldValue == null) //用新值替换旧值 e.value = value; // 访问后回调 afterNodeAccess(e); // 返回旧值 return oldValue; } } // 结构性修改 ++modCount; // 实际大小大于阈值则扩容 if (++size > threshold) resize(); // 插入后回调 afterNodeInsertion(evict); return null; } // 判断树化的方法 final void treeifyBin(Node<K,V>[] tab, int hash) { int n, index; Node<K,V> e; // 如果 数组为null 或者 数组长度小于64 if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize(); // 扩容机制 后面会讲 // 数组长度达到了64 且 索引位置处不为空 else if ((e = tab[index = (n - 1) & hash]) != null) { TreeNode<K,V> hd = null, tl = null; do { TreeNode<K,V> p = replacementTreeNode(e, null);// e.next ---> null if (tl == null) hd = p; else { p.prev = tl; tl.next = p; } tl = p; } while ((e = e.next) != null); if ((tab[index] = hd) != null) // 这里才会真正的树化 hd.treeify(tab); } }
putVal()方法的执行流程如下:
- 第一步:判断键值对数组table[i]是否为空null,是则执行resize()扩容。
- 第二步:根据键key计算hash值得到插入数组的索引i,如果tab[i]== null则直接插入,执行第六步;如果tab[i] != null,执行第三步。
- 第三步:判断tab[i]的第一个元素与插入元素key的hashcode&equals是否相等,相等则覆盖,否则执行第四步。
- 第四步:判断tab[i]是否是红黑树节点TreeNode,是则在红黑树中插入节点,否则执行第五步。
- 第五步:遍历tab[i]判断链表是否大于8,当**链表长度大于阈值(默认为 8)**时,会首先调用
treeifyBin()
方法。这个方法会根据 HashMap 数组来决定是否转换为红黑树。只有当数组长度大于或者等于 64 的情况下,再调用treeify()
方法,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是执行resize()
方法对数组扩容。图中没画出具体细节。 - 第六步:插入成功,判断hashmap的size是否超过threshold的值,超过则扩容。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CP5mq5e7-1631623601297)(D:\A_java\源码讲解\公开课_hashmap资料\图片\05_map-put详细流程图.jpg)]
这里我没有写红黑树的情况,等几天我会再总结一下红黑树。
再对比下1.7版本的put方法,主要区别是头插法和尾插法,以及红黑树的引用。
JDK1.7 的put()方法:
- 如果定位到的数组位置没有元素 就直接插入;
- 如果定位到的数组位置有元素,遍历以这个元素为头结点的链表,依次和插入的 key 比较,如果 key 相同就直接覆盖,不同就采用头插法插入元素。
7.获取节点值—get()与getNode()方法
get()方法比较简单,也是通过调用getNode()方法来完成的。大致逻辑和插入差不多。
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { // 数组元素相等 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; // 桶中不止一个节点 if ((e = first.next) != null) { // 在树中get if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); // 在链表中get do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
8.扩容机制—resize()方法
扩容(resize)就是重新计算容量,向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,对象就需要扩大数组的长度,以便能装入更多的元素。当然Java里的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组,就像我们用一个小桶装水,如果想装更多的水,就得换大水桶。
HashMap会在两个地方进行resize(扩容):
- HashMap实行了懒加载,新建HashMap时不会对table进行赋值, 而是到第一次插入时, 进行resize时构建table;
- 当HashMap.size 大于 threshold时,会进行resize。当第一次构建时, 如果没有指定HashMap.table的初始长度,就用默认值16, 否则就是指定的值;然后不管是第一次构建还是后续扩容, threshold = table.length * loadFactor。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; ... if (++size > threshold) resize(); ... }
下面来看一看resize()源码:
final Node<K,V>[] resize() { //oldTab:引用扩容前的哈希表 //oldCap:表示扩容之前table数组的长度 //oldThr:表示扩容之前的扩容阈值,触发本次扩容的阈值 Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; //newCap:扩容之后table数组的大小 //newThr:扩容之后,下次再次触发扩容的条件 int newCap, newThr = 0; //条件如果成立说明 hashMap中的散列表table已经初始化过了,这是一次正常扩容 if (oldCap > 0) { //扩容之前的table数组大小已经达到 最大长度 后,则不扩容,且设置扩容条件为 int 最大值。 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } //oldCap左移一位实现数值翻倍,并且赋值给newCap, newCap 小于数组最大值限制 且 扩容之前的长度 >= 16 //这种情况下,则 下一次扩容的阈值 等于当前阈值翻倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } //oldCap == 0,说明hashMap中的散列表table是null //1.new HashMap(initCap, loadFactor); //2.new HashMap(initCap); //3.new HashMap(map); 并且这个map有数据 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; //oldCap == 0,oldThr == 0 //new HashMap(); else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY;//16 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12 } //newThr为零时,通过newCap和loadFactor计算出一个newThr if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; //创建出一个更长 更大的数组 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; //说明,hashMap本次扩容之前,table不为null if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { // 当前node节点 Node<K,V> e; //说明当前桶位中有数据,但是数据具体是 单个数据,还是链表 还是 红黑树 并不知道 if ((e = oldTab[j]) != null) { //把引用制空-----方便JVM GC时回收内存 oldTab[j] = null; //第一种情况:当前桶位只有一个元素,从未发生过碰撞,这情况 直接计算出当前元素应存放在 新数组中的位置,然后 //扔进去就可以了 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; //第二种情况:当前节点已经树化,本期先不讲,下一期讲,红黑树。QQ群:865-373-238 else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order //第三种情况:桶位已经形成链表 //低位链表:存放在扩容之后的数组的下标位置,与当前数组的下标位置一致。 Node<K,V> loHead = null, loTail = null; //高位链表:存放在扩容之后的数组的下标位置为 原数组下标位置 + 原数组的长度 Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { // 定义next指针指向当前节点 next = e.next; //hash-> .... 1 1111 //hash-> .... 0 1111 // oldCap没有减一 所以为 10000 // 如果原元素位置没有发生变化 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e;// 确定首元素 else loTail.next = e; loTail = e; // 指针后移 } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 低位链后面有其他元素 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
resize()方法的源码较长,我们可以分成两部分来看:第一部分是确定新数组的长度newCap,新阈值newThr;第二部分是扩容后,数据从旧数组拷贝到新数组。
8.1确定新数组的长度与新阈值
这里只看跟新数组的长度和阈值有关的部分。
final Node<K,V>[] resize() { ... //条件如果成立说明 hashMap中的散列表table已经初始化过了,这是一次正常扩容 if (oldCap > 0) { //扩容之前的table数组大小已经达到 最大长度 后,则不扩容,且设置扩容条件为 int 最大值。 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } //oldCap左移一位实现数值翻倍,并且赋值给newCap, newCap 小于数组最大值限制 且 扩容之前的长度 >= 16 //这种情况下,则 下一次扩容的阈值 等于当前阈值翻倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } //oldCap == 0,说明hashMap中的散列表table是null //1.new HashMap(initCap, loadFactor); //2.new HashMap(initCap); //3.new HashMap(map); 并且这个map有数据 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; //oldCap == 0,oldThr == 0 //new HashMap(); else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY;//16 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12 } //newThr为零时,通过newCap和loadFactor计算出一个newThr if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } ... }
这部分可以分为:
- 第一步:判断是否初始化过
oldCap > 0
,初始化过跳到第二步,没有跳到第三步; - 第二步:初始化过,判断数组长度是否最大长度2^30,
- 达到了最大阈值后,不扩容,设置阈值为 int 最大值;
- 没达到,oldCap左移一位实现数值翻倍,并且赋值给newCap。——>如果还满足 newCap小于数组最大值限制、扩容之前的长度 >= 16 的条件,则下一次扩容的阈值 等于当前阈值翻倍;
- 第三步:未初始化,判断
oldThr
是否为0,- 不为0(
oldCap == 0,oldThr != 0
),设置newCap=oldThr; - 为0(
oldCap == 0,oldThr == 0
),设置newCap=默认初始容量16,newThr=默认初始容量16 * 默认加载因子0.75;
- 不为0(
- 第四步:针对前面只生成了newCap,没有newThr的情况,通过newCap和loadFactor计算出一个newThr。
通过这段代码确定了新数组的长度与新的阈值。
8.2 旧数组的数据拷贝到新数组
//说明,hashMap本次扩容之前,table不为null if (oldTab != null) { // 遍历旧数组赋值到新数组中 for (int j = 0; j < oldCap; ++j) { // 定义虚拟头节点指向每个槽位的链表头 Node<K,V> e; // 说明当前桶位中有数据,但是数据具体是:单个数据、链表或是红黑树,并不知道 if ((e = oldTab[j]) != null) { //把引用制空-----方便JVM GC时回收内存 oldTab[j] = null; //第一种情况:当前桶位只有一个元素,从未发生过碰撞,这情况 直接计算出当前元素应存放在 新数组中的位置,然后扔进去就可以了 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; //第二种情况:当前节点已经树化,先不讲。 else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order //第三种情况:桶位已经形成链表 //低位链表:存放在扩容之前的数组的下标位置,与当前数组的下标位置一致。 Node<K,V> loHead = null, loTail = null; //高位链表:存放在扩容之后的数组的下标位置,下标位置=原数组下标位置+原数组的长度 Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { // 用来遍历链表 next = e.next; // hash-> .... 1 1111 // hash-> .... 0 1111 // oldCap 没有减一 所以为 10000 // 获取当前节点的hash值,与oldCap做按位与运算,如果运算结果为0,则加入lo链 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } // 否则加入hi链 else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 新数组的原位置指向lo链的头节点 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } // 新数组的 j+oldCap 指向hi链的头节点 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } }
有了新的数组,就可以把旧的数组元素拷贝进去。
首先遍历旧数组,定义一个虚拟头节e点用于指向旧数组每个槽位的头节点e = oldTab[j]
。如果旧数组的槽位里不为null,槽位里的节点数据可能是是:单个节点、链表或是红黑树。所以分为三种情况:
- 第一种情况:当前桶位只有一个元素,根据
e.hash & (newCap - 1)
直接计算出该元素应存放在新数组中的位置,然后扔进去就可以了; - 第二种情况:桶位里是树节点,比较复杂,后面会总结红黑树;
- 第三种情况:桶位里是链表,定义指针节点next,来遍历链表
(e = next) != null
,然后根据e.hash & oldCap
计算,如果结果为0加入lo链,如果结果为1加入hi链。最后,将新数组的原位置(跟旧数组相同的位置)指向lo链的头节点,新数组的[j+oldCap]
指向hi链的头节点。
这里重点介绍一下第三种情况,桶位里是链表。
与之前的路由寻址h & (table.length -1)
不同,这里使用的是e.hash & oldCap
来判断扩容后的位置,oldCap为数组长度。只使用length来与运算,说明保留了hash值的高位,如:如果是数组长度为16,路由寻址(table.length -1)
—0000,现在oldCap
—10000。
所以,在旧的数组里,同一个槽位的链表里,因为使用的是h & (table.length -1)
计算下标,对于哈希值的高位可能是0,也可能是1。如果高位是0的时候,就即0 0101 = 5
这样,他在新数组里的索引位置和旧数组一样;如果高位是1的,在新数组里的位置就为 1 0101 = 16 + 5
,即,[j+oldCap]
, j为旧数组里的索引。
具体看下图:
n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。
数据在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:
8.3 与JDK1.7的resize()对比
1.7版本的resize方法比1.8的简单,源码如下:
void resize(int newCapacity) { //传入新的容量 Entry[] oldTable = table; //引用扩容前的Entry数组 int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { //扩容前的数组大小如果已经达到最大(2^30)了 threshold = Integer.MAX_VALUE; //修改阈值为int的最大值(2^31-1),这样以后就不会扩容了 return; } Entry[] newTable = new Entry[newCapacity]; //初始化一个新的Entry数组 transfer(newTable); //!!将数据转移到新的Entry数组里 table = newTable; //HashMap的table属性引用新的Entry数组 threshold = (int)(newCapacity * loadFactor);//修改阈值 }
使用一个容量更大的数组来代替已有的容量小的数组,transfer()方法将原有Entry数组的元素拷贝到新的Entry数组里。
void transfer(Entry[] newTable) { Entry[] src = table; //src引用了旧的Entry数组 int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { //遍历旧的Entry数组 Entry<K,V> e = src[j]; //取得旧Entry数组的每个元素 if (e != null) { src[j] = null;//释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象) do { Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); //!!重新计算每个元素在数组中的位置 e.next = newTable[i]; //标记[1] newTable[i] = e; //将元素放在数组上 e = next; //访问下一个Entry链上的元素 } while (e != null); } } }
e.next = newTable[i];
:说明newTable[i]的引用赋给了e.next,也就是使用了单链表的头插法方式,同一位置上新元素总会被放在链表的头部位置;这样先放在一个索引上的元素终会被放到Entry链的尾部(如果发生了hash冲突的话),这一点和Jdk1.8有区别。1.8是定义了两条链lo与hi,定义节点next遍历链表,再将节点的哈希值进行与运算判断应该插入lo或者hi链的尾部(尾插法),最后再将新数组的的下标指向对应的两条链。
举个例子,看下JDK1.7的扩容过程。假设了我们的hash算法就是简单的 用key取模(mod) 表的大小(也就是数组的长度)。其中的哈希桶数组table的size=2, 所以key = 3、7、5,插入的顺序依次为 5、7、3。在mod 2以后都冲突在table[1]这里了。这里假设负载因子 loadFactor=1,即当键值对的实际大小size 大于 table的实际大小时进行扩容。接下来的三个步骤是哈希桶数组 resize成4,然后所有的Node重新rehash的过程。
9.线程安全性(死循环)
在多线程使用场景中,应该尽量避免使用线程不安全的HashMap,而使用线程安全的ConcurrentHashMap(争取下周能不能总结完并发map)。那么为什么说HashMap是线程不安全的,下面举例子说明在并发的多线程使用场景中使用HashMap可能造成死循环。代码例子如下(便于理解,仍然使用JDK1.7的环境):
public class HashMapInfiniteLoop { private static HashMap<Integer,String> map = new HashMap<Integer,String>(2,0.75f); public static void main(String[] args) { map.put(5, "C"); new Thread("Thread1") { public void run() { map.put(7, "B"); System.out.println(map); }; }.start(); new Thread("Thread2") { public void run() { map.put(3, "A); System.out.println(map); }; }.start(); } }
其中,map初始化为一个长度为2的数组,loadFactor=0.75
,threshold=2*0.75=1
,也就是说当put第二个key的时候,map就需要进行resize。
通过设置断点让线程1和线程2同时debug到transfer方法(8.3节)的首行。注意此时两个线程已经成功添加数据。放开thread1的断点至transfer方法的“Entry next = e.next;
” 这一行;然后放开线程2的的断点,让线程2进行resize。结果如下图。
注意,Thread1的 e 指向了key(3),而next指向了key(7),其在线程二rehash后,指向了线程二重组后的链表。
线程一被调度回来执行,先是执行 newTalbe[i] = e
, 然后是e = next
,导致了e指向了key(7),而下一次循环的next = e.next导致了next指向了key(3)。
e.next = newTable[i]
导致 key(3).next 指向了 key(7)。注意:此时的key(7).next 已经指向了key(3), 环形链表就这样出现了。
于是,当我们用线程一调用map.get(11)时,悲剧就出现了——Infinite Loop。
所以在并发的情况,发生扩容时,可能会产生循环链表,在执行get的时候,会触发死循环,引起CPU的100%问题,所以一定要避免在并发环境下使用HashMap。
曾经有人把这个问题报给了Sun,不过Sun不认为这是一个bug,因为在HashMap本来就不支持多线程使用,要并发就用ConcurrentHashmap。
参考文献:
Java 8系列之重新认识HashMap
一个HashMap跟面试官扯了半个小时
HashMap详解
老生常谈,HashMap的死循环
这篇关于HashMap源码分析的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-27本地多文件上传简易教程
- 2024-11-26消息中间件源码剖析教程
- 2024-11-26JAVA语音识别项目资料的收集与应用
- 2024-11-26Java语音识别项目资料:入门级教程与实战指南
- 2024-11-26SpringAI:Java 开发的智能新利器
- 2024-11-26Java云原生资料:新手入门教程与实战指南
- 2024-11-26JAVA云原生资料入门教程
- 2024-11-26Mybatis官方生成器资料详解与应用教程
- 2024-11-26Mybatis一级缓存资料详解与实战教程
- 2024-11-26Mybatis一级缓存资料详解:新手快速入门