本文针对JDK8中的HashMap进行讲解。对比jdk1.7 ,最大的不同就是数据结构使用了红黑树,所以其由 数组+链表+红黑树 组成。
版本 | 结构 | 哈希算法 |
---|---|---|
JDK1.7 | 数组 + 链表 | 使用位运算 |
JDK1.8 | 数组 + 链表 + 红黑树 | 使用 ^ 将高位与低位进行异或运算 |
// 默认的初始化长度 16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
// 最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认负载因子 - 用于扩容
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 链表转红黑树的阈值:8
static final int TREEIFY_THRESHOLD = 8;
// 红黑树转链表的阈值:6
static final int UNTREEIFY_THRESHOLD = 6;
// 链表转红黑树同时还需要满足一个条件,数组长度为64
static final int MIN_TREEIFY_CAPACITY = 64;
------ 变量 ------
//实际存储的key-value键值对的个数
transient int size;
//用于快速失败,由于HashMap非线程安全,在对HashMap进行迭代时,如果期间其他线程的参与导致HashMap的结构发生变化了(比如put,remove等操作),需要抛出异常ConcurrentModificationException
transient int modCount;
// 当table == {}时,该值为初始容量(初始容量默认为DEFAULT_INITIAL_CAPACITY);当table被填充了,也就是为table分配内存空间后,threshold一般为 capacity*loadFactory。HashMap在进行扩容时需要参考threshol
int threshold;
// 负载因子,代表了table的填充度有多少,默认是0.75
final float loadFactor;
Node是HashMap的基本组成元素,每一个Node包含一个key-value键值对。
static class Node<K,V> implements Map.Entry<K,V> {
final int hash; // 存储键的哈希码,通过对键的哈希码进行运算,可以快速地定位到数组的索引位置。
final K key;
V value;
Node<K,V> next; // 指向下一个 Node 的引用。由于哈希冲突的存在,可能多个键映射到同一个索引位置,因此采用链表或红黑树的方式来解决冲突,next 就是用于存储下一个节点的引用。
}
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
// 数组下标计算
index = (n - 1) & hash
面试问题:为什么HashMap初始化容量是2的幂次方 ???
目的为了数组离散均匀,同时减少哈希冲突和不必要的数据空间浪费。按位与运算比取模运算速度快。
解析:
为了满足公式 :
hash % length == hash & (length - 1 )
jdk中1.7求哈希为
除留余数法
:index = hash % lengthJDK1.8更改为 index = hash & (length - 1),而优势就是
效率高。
数组的长度一定需要为2的幂次方。例如,在场长度为16时,在二进制的表示中所有位都是1,保证了对任意哈希进行&操作的时候,都能保留哈希值的所有位。如下
00100100 10100101 11000100 00100101 // Hash 值 & 00000000 00000000 00000000 00001111 // 16 - 1 = 15 ---------------------------------- 00000000 00000000 00000000 00000101 // 高位全部归零,只保留了末四位。下标永远在0-15,减小哈希冲突,提高散列均匀性
解决哈希冲突。
get
方法:public V get(Object key) {
Node<K, V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K, V> getNode(int hash, Object key) {
Node<K, V>[] tab;
Node<K, V> first, e;
int n;
K k;
// 如果哈希表不为空且键对应的槽中有节点,则进行查找
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 判断第一个结点是不是匹配的,如果第一个节点的哈希值和键匹配,则直接返回第一个节点的值
if (first.hash == hash &&
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 如果槽中有多个节点,则遍历链表或树进行查找
if ((e = first.next) != null) {
// 判断当前数据结构是否为树型结构
if (first instanceof TreeNode)
return ((TreeNode<K, V>)first).getTreeNode(hash, key);
do {
// 遍历链表
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
// 如果没有找到匹配的节点,则返回 null
return null;
}
get
方法首先调用 getNode
方法获取对应键的节点。getNode
方法通过哈希值定位到哈希表中的槽,然后在链表或树中查找匹配的节点。null
。put
方法:public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
// onlyIfAbsent 如果是true,那么只有在不存在该 key 时才进行put操作
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K, V>[] tab;
Node<K, V> p;
int n, i;
// 如果哈希表为空,则进行初始化
// map第一次进行put操作时,会触发下面的resize()
// 第一次触发resize与后续的扩容不一样,首次扩容是数组从 null 初始化到默认的 16 或 自定义的初始容量
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 如果槽中没有节点,则直接插入新节点
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K, V> e;
K k;
// 如果槽中有节点,则进行链表或树的遍历
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K, V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
// 如果链表长度达到树化的阈值,则将链表转为红黑树
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1)
treeifyBin(tab, hash);
break;
}
// 遍历链表,查找匹配的节点
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果找到与当前插入匹配的节点,根据onlyIfAbsent进行节点更新,更新成功之后返回旧值
if (e != null) {
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果插入新节点后,哈希表的大小超过了阈值,则进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
put
方法首先调用 hash
方法计算键的哈希值,然后调用 putVal
方法执行实际的插入操作。putVal
方法先检查哈希表是否为空,如果为空则进行初始化。在 HashMap
中,扩容是为了防止哈希冲突的发生,提高哈希表的性能。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// 如果旧的容量大于0
if (oldCap > 0) {
// 如果旧的容量已经达到了最大容量,则不再扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 否则,计算新的容量和新的阈值
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 如果旧的容量为0,但阈值已经被设置过,则将容量设置为阈值
else if (oldThr > 0)
newCap = oldThr;
// 如果旧的容量和阈值都为0,则使用默认初始容量和默认加载因子
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 如果新的阈值为0,则计算新的阈值
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 更新阈值
threshold = newThr;
// 创建新的哈希表
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 如果旧的哈希表不为空,则将旧的节点重新映射到新的哈希表中
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
关键步骤如下:
在这个过程中,通过位运算 (hash & (newCap - 1))
,新的容量和新的阈值来重新计算节点的位置。这种方式保持了节点在新数组中的相对位置关系,有助于提高性能。在链表长度达到一定阈值时,还会考虑将链表转化为红黑树,以提高查询效率。