ConcurrentHashMap和HashMap的区别

发布时间:2024年01月19日

什么是HashMap

(1)HashMap 是基于 Map 接口的非同步实现,线程不安全,是为了快速存取而设计的;它采用 key-value 键值对的形式存放元素(并封装成 Node 对象),允许使用 null 键和 null 值,但只允许存在一个键为 null,并且存放在 Node[0] 的位置,不过允许存在多个 value 为 null 的情况。

(2)在 JDK7 及之前的版本,HashMap 的数据结构可以看成“数组+链表”,在 JDK8 及之后的版本,数据结构可以看成"数组+链表+红黑树",也就是说 HashMap 底层采用数组实现,数组的每个位置都存储一个单向链表,当链表的长度超过一定的阈值时,就会转换成红黑树。转换的目的是当链表中元素较多时,也能保证HashMap的存取效率

在 Java 8 中,HashMap 在内部使用了一个数组来存储键值对。当 HashMap 中的元素个数超过了一个阈值(默认为容量的0.75倍),并且某个桶(数组索引位置)中的元素个数超过了一个阈值(默认为8),这个桶中的链表会转换成红黑树。

这种转换是为了提高在链表长度较长时的查找、插入和删除操作的性能,因为红黑树的时间复杂度是 O(log n),而链表的时间复杂度是 O(n)。通过将链表转换为红黑树,可以显著减少在大型哈希表中的查找时间。

需要注意的是,并非所有的链表都会在达到阈值时转换为红黑树。转换条件是链表的长度超过了一个阈值,默认为8。这是因为链表的长度较小时,使用链表进行查找操作仍然具有较好的性能。

当哈希表中的元素数量减少时,红黑树也会在特定条件下重新转换为链表,以节省内存空间。

总而言之,当 HashMap 中的某个桶中的链表长度超过阈值时,默认为8,该链表会被转换为红黑树,以提高查找、插入和删除操作的性能。当元素数量减少时,红黑树也会在特定条件下重新转换为链表。这种转换是为了在特定情况下优化 HashMap 的性能。

(3)HashMap 有两个影响性能的关键参数:“初始容量”和“加载因子”:

容量 capacity:就是哈希表中数组的数量,默认初始容量是16,容量必须是2的N次幂,这是为了提高计算机的执行效率。
加载因子 loadfactor:在 HashMap 扩容之前,容量可以达到多满的程度,默认值为 0.75
扩容阈值 threshold = capacity * loadfactor

(4)采用 Fail-Fast 机制,底层通过一个 modCount 值记录修改的次数,对 HashMap 的修改操作都会增加这个值。迭代器在初始过程中会将这个值赋给 exceptedModCount ,在迭代的过程中,如果发现 modCount 和 exceptedModCount 的值不一致,代表有其他线程修改了Map,就立刻抛出异常。

Hashmap扩容

在 Java 中,HashMap 的扩容操作是在添加元素时完成的。当添加元素后,如果当前 HashMap 的元素数量超过了负载因子(默认为 0.75)与容量的乘积时,就会触发扩容操作。

扩容操作会创建一个新的数组,并将原来的所有元素重新分配到新的数组中。在重新分配元素时,需要重新计算每个元素在新数组中的位置,这是通过对元素的哈希值进行重新计算得到的。如果计算出来的新位置上已经有元素存在,那么就会发生冲突,需要解决冲突。解决冲突的方式和初始创建 HashMap 时一样,使用链表或红黑树进行存储。

需要注意的是,扩容操作比较耗费时间,因为需要重新计算每个元素在新数组中的位置,并且需要遍历原来的链表或红黑树来重新分配元素。因此,为了提高性能,可以通过在创建 HashMap 时设置初始容量,来减少扩容的次数。

另外,HashMap 的扩容操作是线程不安全的。如果多个线程同时进行扩容操作,可能会导致数据丢失或者数据不一致等问题。因此,在多线程环境下使用 HashMap 时,需要进行正确的同步处理,或者使用线程安全的 ConcurrentHashMap

综上所述,`HashMap` 的扩容操作是在添加元素时完成的,当元素数量超过负载因子乘以容量时就会触发扩容。在扩容时,需要重新计算每个元素在新数组中的位置,并且需要重新分配元素,解决冲突,这个过程比较耗费时间。在多线程环境下使用 `HashMap` 时需要进行正确的同步处理或者使用线程安全的 `ConcurrentHashMap`。

Hash冲突

在 HashMap 中,当发生hash冲突时,解决方式是采用拉链法,也就是将所有哈希值相同的记录都放在同一个链表中,除此之外,解决hash冲突的方式有:

开放地址法(线性探测再散列、二次探测再散列、伪随机探测再散列):当冲突发生时,在散列表中形成一个探测序列,沿此序列逐个单元地查找,直到找到给定的关键字,或者碰到一个开放的地址为止(即该地址单元为空)。如果是插入的情况,在探查到开放的地址,则可将待插入的新结点存入该地址单元,如果是查找的情况,探查到开放的地址则表明表中无待查的关键字,即查找失败。
再哈希法:产生冲突时,使用另外的哈希函数计算出一个新的哈希地址、直到冲突不再发生
建立一个公共溢出区:把冲突的记录都放在另一个存储空间,不放在表里面。

ConcurrentHashMap 原理(JDK8)

1、ConcurrentHashMap 的实现原理:
在 JDK8 及以上的版本中,ConcurrentHashMap 的底层数据结构依然采用“数组+链表+红黑树”,但是在实现线程安全性方面,抛弃了 JDK7 版本的 Segment分段锁的概念,而是采用了 synchronized + CAS 算法来保证线程安全。在ConcurrentHashMap中,大量使用 Unsafe.compareAndSwapXXX 的方法,这类方法是利用一个CAS算法实现无锁化的修改值操作,可以大大减少使用加锁造成的性能消耗。这个算法的基本思想就是不断比较当前内存中的变量值和你预期变量值是否相等,如果相等,则接受修改的值,否则拒绝你的而操作。因为当前线程中的值已经不是最新的值,你的修改很可能会覆盖掉其他线程修改的结果。

ConcurrentHashMap扩容

ConcurrentHashMap 在扩容方面和 HashMap 有些不同。在 ConcurrentHashMap 中,同样是在添加元素时进行扩容操作,但是扩容操作是由多个线程同时进行的。这是因为 ConcurrentHashMap 使用了分段锁(Segment),将整个哈希表分成多个小的哈希表段,每个小的哈希表段都有一个独立的锁。

ConcurrentHashMap 中,当需要扩容时,不会对整个哈希表进行扩容,而是对其中的一个小的哈希表段进行扩容。扩容过程仅需要对当前哈希表段上的锁进行加锁,其他哈希表段的数据可以继续被访问和修改,这样就实现了并发扩容。

另外,为了避免在扩容期间出现数据不一致的情况,ConcurrentHashMap 在扩容时使用了一种叫做“分裂”的技术,即将当前哈希表段中的所有元素复制到新的哈希表段中,而不是像 HashMap 那样重新计算每个元素在新数组中的位置。在复制元素时,如果某个元素需要移动到新的哈希表段中,就需要在新哈希表段中重新计算该元素在新数组中的位置,并将该元素放置到正确的位置上。这个过程中需要进行同步处理,以保证数据的一致性。

ConcurrentHashMap 中,分段锁和分裂技术的使用,使得扩容操作可以并发地进行,并且保证了在扩容期间数据的一致性。这些特性使得 ConcurrentHashMap 在高并发环境下具有优秀的性能表现。

综上所述,`ConcurrentHashMap` 在扩容方面和 `HashMap` 有些不同,采用了分段锁和分裂技术,使得扩容操作可以并发地进行,并且保证了数据的一致性。这些特性使得 `ConcurrentHashMap` 在高并发环境下有着优秀的性能表现。

区别

HashMap

HashMap 是 Java 中最常用的非线程安全的哈希表实现。它允许键和值为 null,并且允许存在重复的值,但不允许重复的键。在单线程环境下,HashMap 的性能很好,可以快速进行插入、查找和删除操作。

然而,在多线程环境下,由于 HashMap 不是线程安全的,当多个线程同时对其进行修改时,可能会导致数据不一致、循环等问题。

ConcurrentHashMap

ConcurrentHashMap 是 Java 中线程安全的哈希表实现。它保证了在多线程环境下的安全性,并且相比 HashMap 在多线程环境下有着更好的性能表现。ConcurrentHashMap 通过使用分段锁(Segment)来实现并发访问。每个 Segment 其实就是一个小的 HashMap,它只锁定当前操作的那一部分数据,而不是整个表。

ConcurrentHashMap 在读取操作上不需要加锁,因此能够实现并发的高效读取。在写入操作上,只有涉及到的 Segment 被锁定,而其他部分仍然可以被并发访问,这样就大大提高了并发写入的性能。

参考链接:Java集合篇:HashMap 与 ConcurrentHashMap 原理总结

文章来源:https://blog.csdn.net/qq_56936805/article/details/135708331
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。