博客
关于我
70%的Java程序员不知道为啥 ConcurrentHashMap 读操作不需要加锁?
阅读量:369 次
发布时间:2019-03-05

本文共 1352 字,大约阅读时间需要 4 分钟。

为什么ConcurrentHashMap的get操作不需要加锁?

ConcurrentHashMap在JDK 1.8中引入了一种新的并发安全机制,使其在get操作中无需显式加锁。这种实现依赖于volatile关键字和其他内存模型机制,确保线程之间的数据一致性。以下是详细的解释:


1. ConcurrentHashMap的简介

ConcurrentHashMap是JDK 1.8引入的一种并发安全集合框架,相较于之前的Segment+HashEntry+ReentrantLock实现,1.8版本采用了Node、CAS(比较与交换)和Synchronized关键字来实现。这种设计将锁的粒度从Segment提升到了HashEntry(首节点),降低了锁的使用频率,提高了并发性能。


2. get操作源码分析

ConcurrentHashMap的get操作通过以下步骤完成:

  • 计算键码:使用spread(key.hashCode())计算键码,定位到表格中的索引位置。
  • 查找首节点:如果找到首节点且键值匹配,则直接返回值。
  • 处理扩容节点:遇到扩容节点(ForwardingNode)时,调用find方法查找下一个表格中的节点。
  • 链表遍历:如果既不是首节点也不是扩容节点,则遍历链表查找匹配节点。
  • 源码中没有加锁,这是因为Node对象的valnext字段被volatile修饰,确保多线程环境下可见性和一致性。


    3. 没有加锁,ConcurrentHashMap如何保证读到的数据不是脏数据?

    • volatile的作用:volatile确保了可见性和一致性。修改后的值会立即写入主存,避免缓存一致性问题。
    • 缓存一致性协议:在多处理器环境下,volatile变量的修改会通知其他CPU,确保所有处理器的缓存一致。

    4. volatile登场的意义

    • 可见性:volatile变量确保修改结果对所有线程可见。
    • 一致性:volatile变量的写入会强制将值写入主存,避免缓存不一致。
    • 禁止指令重排序:volatile操作阻止处理器对写入和读取操作进行重排序,确保执行顺序一致性。

    5. 是加在数组上的volatile吗?

    • 数组用volatile修饰:数组用volatile修饰是为了确保数组本身的可见性,而不是数组元素。例如,transient volatile Node[] table;中的volatile修饰数组,而不是数组中的元素。
    • 数组的可见性:数组用volatile修饰的目的是在扩容时保证其他线程能够正确地看到数组的变化,避免数据不一致。

    6. 用volatile修饰的Node

    • 成员变量修饰:Node类中valnext字段用volatile修饰,确保线程间的可见性和一致性。
    • 线程安全机制:通过volatile,线程A对Node的修改会立即对线程B可见,避免数据不一致。

    7. 总结

    • 无锁机制:ConcurrentHashMap的get操作无需加锁,是因为依赖于volatile修饰和内存模型机制。
    • 数组用volatile修饰:主要是为了在扩容时保证数组的可见性,而不是数组元素的可见性。
    • 性能优势:通过降低锁粒度和优化数据结构(如红黑树),ConcurrentHashMap实现了高效的并发性能。

    转载地址:http://rgvg.baihongyu.com/

    你可能感兴趣的文章
    Nginx配置负载均衡到后台网关集群
    查看>>
    ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
    查看>>
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
    查看>>
    NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
    查看>>
    NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
    查看>>
    NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
    查看>>
    NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
    查看>>