博客
关于我
70%的Java程序员不知道为啥 ConcurrentHashMap 读操作不需要加锁?
阅读量:369 次
发布时间:2019-03-05

本文共 1352 字,大约阅读时间需要 4 分钟。

为什么ConcurrentHashMap的get操作不需要加锁?

ConcurrentHashMap在JDK 1.8中引入了一种新的并发安全机制,使其在get操作中无需显式加锁。这种实现依赖于volatile关键字和其他内存模型机制,确保线程之间的数据一致性。以下是详细的解释:


1. ConcurrentHashMap的简介

ConcurrentHashMap是JDK 1.8引入的一种并发安全集合框架,相较于之前的Segment+HashEntry+ReentrantLock实现,1.8版本采用了Node、CAS(比较与交换)和Synchronized关键字来实现。这种设计将锁的粒度从Segment提升到了HashEntry(首节点),降低了锁的使用频率,提高了并发性能。


2. get操作源码分析

ConcurrentHashMap的get操作通过以下步骤完成:

  • 计算键码:使用spread(key.hashCode())计算键码,定位到表格中的索引位置。
  • 查找首节点:如果找到首节点且键值匹配,则直接返回值。
  • 处理扩容节点:遇到扩容节点(ForwardingNode)时,调用find方法查找下一个表格中的节点。
  • 链表遍历:如果既不是首节点也不是扩容节点,则遍历链表查找匹配节点。
  • 源码中没有加锁,这是因为Node对象的valnext字段被volatile修饰,确保多线程环境下可见性和一致性。


    3. 没有加锁,ConcurrentHashMap如何保证读到的数据不是脏数据?

    • volatile的作用:volatile确保了可见性和一致性。修改后的值会立即写入主存,避免缓存一致性问题。
    • 缓存一致性协议:在多处理器环境下,volatile变量的修改会通知其他CPU,确保所有处理器的缓存一致。

    4. volatile登场的意义

    • 可见性:volatile变量确保修改结果对所有线程可见。
    • 一致性:volatile变量的写入会强制将值写入主存,避免缓存不一致。
    • 禁止指令重排序:volatile操作阻止处理器对写入和读取操作进行重排序,确保执行顺序一致性。

    5. 是加在数组上的volatile吗?

    • 数组用volatile修饰:数组用volatile修饰是为了确保数组本身的可见性,而不是数组元素。例如,transient volatile Node[] table;中的volatile修饰数组,而不是数组中的元素。
    • 数组的可见性:数组用volatile修饰的目的是在扩容时保证其他线程能够正确地看到数组的变化,避免数据不一致。

    6. 用volatile修饰的Node

    • 成员变量修饰:Node类中valnext字段用volatile修饰,确保线程间的可见性和一致性。
    • 线程安全机制:通过volatile,线程A对Node的修改会立即对线程B可见,避免数据不一致。

    7. 总结

    • 无锁机制:ConcurrentHashMap的get操作无需加锁,是因为依赖于volatile修饰和内存模型机制。
    • 数组用volatile修饰:主要是为了在扩容时保证数组的可见性,而不是数组元素的可见性。
    • 性能优势:通过降低锁粒度和优化数据结构(如红黑树),ConcurrentHashMap实现了高效的并发性能。

    转载地址:http://rgvg.baihongyu.com/

    你可能感兴趣的文章
    Nginx运维与实战(二)-Https配置
    查看>>
    Nginx配置ssl实现https
    查看>>
    Nginx配置TCP代理指南
    查看>>
    Nginx配置——不记录指定文件类型日志
    查看>>
    Nginx配置代理解决本地html进行ajax请求接口跨域问题
    查看>>
    Nginx配置参数中文说明
    查看>>
    Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
    查看>>
    Nginx配置如何一键生成
    查看>>
    Nginx配置实例-负载均衡实例:平均访问多台服务器
    查看>>
    NHibernate学习[1]
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
    查看>>
    NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
    查看>>
    NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
    查看>>