Java集合 - HashMap源码解析(持续更新)

发布时间:2024年01月09日

本文针对JDK8中的HashMap进行讲解。对比jdk1.7 ,最大的不同就是数据结构使用了红黑树,所以其由 数组+链表+红黑树 组成。

版本结构哈希算法
JDK1.7数组 + 链表使用位运算
JDK1.8数组 + 链表 + 红黑树使用 ^ 将高位与低位进行异或运算
1. 成员变量-参数
// 默认的初始化长度 16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
// 最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认负载因子 - 用于扩容
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 链表转红黑树的阈值:8
static final int TREEIFY_THRESHOLD = 8;
// 红黑树转链表的阈值:6
static final int UNTREEIFY_THRESHOLD = 6;
// 链表转红黑树同时还需要满足一个条件,数组长度为64
static final int MIN_TREEIFY_CAPACITY = 64;

------ 变量 ------
//实际存储的key-value键值对的个数
transient int size;

//用于快速失败,由于HashMap非线程安全,在对HashMap进行迭代时,如果期间其他线程的参与导致HashMap的结构发生变化了(比如put,remove等操作),需要抛出异常ConcurrentModificationException
transient int modCount;

// 当table == {}时,该值为初始容量(初始容量默认为DEFAULT_INITIAL_CAPACITY);当table被填充了,也就是为table分配内存空间后,threshold一般为 capacity*loadFactory。HashMap在进行扩容时需要参考threshol
int threshold;

// 负载因子,代表了table的填充度有多少,默认是0.75
final float loadFactor;
2. 基本组成元素

Node是HashMap的基本组成元素,每一个Node包含一个key-value键值对。

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash; // 存储键的哈希码,通过对键的哈希码进行运算,可以快速地定位到数组的索引位置。
    final K key;
    V value;
    Node<K,V> next; // 指向下一个 Node 的引用。由于哈希冲突的存在,可能多个键映射到同一个索引位置,因此采用链表或红黑树的方式来解决冲突,next 就是用于存储下一个节点的引用。
}
3. 哈希冲突计算
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
// 数组下标计算
index = (n - 1) & hash

面试问题:为什么HashMap初始化容量是2的幂次方 ???

目的为了数组离散均匀,同时减少哈希冲突和不必要的数据空间浪费。按位与运算比取模运算速度快。

解析:

为了满足公式 : hash % length == hash & (length - 1 )

jdk中1.7求哈希为除留余数法:index = hash % length

JDK1.8更改为 index = hash & (length - 1),而优势就是

  • 效率高。

  • 数组的长度一定需要为2的幂次方。例如,在场长度为16时,在二进制的表示中所有位都是1,保证了对任意哈希进行&操作的时候,都能保留哈希值的所有位。如下

        00100100 10100101 11000100 00100101    // Hash 值 
    &   00000000 00000000 00000000 00001111    // 16 - 1 = 15
    ----------------------------------
        00000000 00000000 00000000 00000101    // 高位全部归零,只保留了末四位。下标永远在0-15,减小哈希冲突,提高散列均匀性
    
  • 解决哈希冲突。

4. get 方法:
public V get(Object key) {
    Node<K, V> e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}

final Node<K, V> getNode(int hash, Object key) {
    Node<K, V>[] tab;
    Node<K, V> first, e;
    int n;
    K k;

    // 如果哈希表不为空且键对应的槽中有节点,则进行查找
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        // 判断第一个结点是不是匹配的,如果第一个节点的哈希值和键匹配,则直接返回第一个节点的值
        if (first.hash == hash &&
            ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        // 如果槽中有多个节点,则遍历链表或树进行查找
        if ((e = first.next) != null) {
            // 判断当前数据结构是否为树型结构
            if (first instanceof TreeNode)
                return ((TreeNode<K, V>)first).getTreeNode(hash, key);
            do {
                // 遍历链表
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    // 如果没有找到匹配的节点,则返回 null
    return null;
}
  • get 方法首先调用 getNode 方法获取对应键的节点。
  • getNode 方法通过哈希值定位到哈希表中的槽,然后在链表或树中查找匹配的节点。
  • 如果找到了匹配的节点,返回节点的值;否则返回 null
5. put 方法:
public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}
// onlyIfAbsent 如果是true,那么只有在不存在该 key 时才进行put操作
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K, V>[] tab;
    Node<K, V> p;
    int n, i;

    // 如果哈希表为空,则进行初始化
    // map第一次进行put操作时,会触发下面的resize()
    // 第一次触发resize与后续的扩容不一样,首次扩容是数组从 null 初始化到默认的 16 或 自定义的初始容量
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;

    // 如果槽中没有节点,则直接插入新节点
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K, V> e;
        K k;

        // 如果槽中有节点,则进行链表或树的遍历
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        else if (p instanceof TreeNode)
            e = ((TreeNode<K, V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            for (int binCount = 0; ; ++binCount) {
                // 如果链表长度达到树化的阈值,则将链表转为红黑树
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    if (binCount >= TREEIFY_THRESHOLD - 1)
                        treeifyBin(tab, hash);
                    break;
                }
                // 遍历链表,查找匹配的节点
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        // 如果找到与当前插入匹配的节点,根据onlyIfAbsent进行节点更新,更新成功之后返回旧值
        if (e != null) {
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }

    ++modCount;
    // 如果插入新节点后,哈希表的大小超过了阈值,则进行扩容
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}
  • put 方法首先调用 hash 方法计算键的哈希值,然后调用 putVal 方法执行实际的插入操作。
  • putVal 方法先检查哈希表是否为空,如果为空则进行初始化。
  • 接着,在槽中没有节点的情况下,直接插入新节点。
  • 如果槽中有节点,则根据链表长度和树化阈值的不同情况,选择继续遍历链表或将链表转为红黑
6. 扩容机制

HashMap 中,扩容是为了防止哈希冲突的发生,提高哈希表的性能。

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;

    // 如果旧的容量大于0
    if (oldCap > 0) {
        // 如果旧的容量已经达到了最大容量,则不再扩容
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 否则,计算新的容量和新的阈值
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    // 如果旧的容量为0,但阈值已经被设置过,则将容量设置为阈值
    else if (oldThr > 0)
        newCap = oldThr;
    // 如果旧的容量和阈值都为0,则使用默认初始容量和默认加载因子
    else {
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }

    // 如果新的阈值为0,则计算新的阈值
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }

    // 更新阈值
    threshold = newThr;

    // 创建新的哈希表
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;

    // 如果旧的哈希表不为空,则将旧的节点重新映射到新的哈希表中
    if (oldTab != null) {
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

关键步骤如下:

  1. 计算新容量和新阈值: 根据旧容量、旧阈值、加载因子等信息计算新的容量和新的阈值。
  2. 创建新数组: 根据新的容量创建一个新的数组。
  3. 将旧数据重新映射到新数组中: 遍历旧的数组,将其中的节点根据新的容量重新映射到新的数组中,涉及到链表的拆分和合并。
  4. 更新阈值和数组引用: 更新阈值和数组引用。

在这个过程中,通过位运算 (hash & (newCap - 1)),新的容量和新的阈值来重新计算节点的位置。这种方式保持了节点在新数组中的相对位置关系,有助于提高性能。在链表长度达到一定阈值时,还会考虑将链表转化为红黑树,以提高查询效率。

文章来源:https://blog.csdn.net/qq_43678225/article/details/135377959
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。