前 言
第1章 Java并发编程基础 1
1.1 线程简介 1
1.1.1 什么是线程 1
1.1.2 为什么要使用多线程 2
1.1.3 线程优先级 3
1.1.4 线程的状态 4
1.1.5 Daemon线程 8
1.2 启动和终止线程 8
1.2.1 构造线程 9
1.2.2 启动线程 9
1.2.3 理解中断 9
1.2.4 过期的suspend()、resume()和
stop() 11
1.2.5 安全地终止线程 12
1.3 线程间通信 13
1.3.1 volatile和synchronized关键字 13
1.3.2 等待/通知机制 15
1.3.3 等待/通知的经典范式 18
1.3.4 管道输入/输出流 19
1.3.5 thread.join()的使用 20
1.3.6 ThreadLocal的使用 22
1.4 线程应用实例 23
1.4.1 等待超时模式 23
1.4.2 一个简单的数据库连接池示例 23
1.4.3 线程池技术及其示例 27
1.4.4 一个基于线程池技术的简单
Web服务器 30
1.5 本章小结 34
第2章 并发编程的挑战 35
2.1 上下文切换 35
2.1.1 多线程一定快吗 35
2.1.2 测试上下文切换次数和时长 37
2.1.3 如何减少上下文切换 37
2.1.4 减少上下文切换实战 38
2.2 死锁 39
2.3 资源限制的挑战 40
2.4 本章小结 41
第3章 Java并发机制的底层实现
原理 42
3.1 volatile的应用 42
3.2 synchronized的实现原理与应用 45
3.2.1 Java对象头 46
3.2.2 锁的升级与对比 47
3.3 原子操作的实现原理 50
3.4 本章小结 54
第4章 Java内存模型 55
4.1 Java内存模型基础 55
4.1.1 并发编程模型的两个关键
问题 55
4.1.2 Java内存模型的抽象结构 56
4.1.3 从源代码到指令序列的重
排序 57
4.1.4 并发编程模型的分类 58
4.1.5 happens-before简介 60
4.2 重排序 61
4.2.1 数据依赖性 62
4.2.2 as-if-serial语义 62
4.2.3 程序顺序规则 63
4.2.4 重排序对多线程的影响 63
4.3 顺序一致性 65
4.3.1 数据竞争与顺序一致性 65
4.3.2 顺序一致性内存模型 66
4.3.3 同步程序的顺序一致性效果 68
4.3.4 未同步程序的执行特性 69
4.4 volatile的内存语义 71
4.4.1 volatile的特性 72
4.4.2 volatile写-读建立的
happens-before关系 73
4.4.3 volatile写-读的内存语义 74
4.4.4 volatile内存语义的实现 76
4.4.5 JSR-133为什么要增强volatile的
内存语义 80
4.5 锁的内存语义 81
4.5.1 锁的释放-获取建立的
happens-before关系 81
4.5.2 锁的释放和获取的内存语义 81
4.5.3 锁内存语义的实现 83
4.5.4 concurrent包的实现 87
4.6 f?inal域的内存语义 89
4.6.1 f?inal域的重排序规则 89
4.6.2 写f?inal域的重排序规则 89
4.6.3 读f?inal域的重排序规则 90
4.6.4 f?inal域为引用类型 92
4.6.5 为什么f?inal引用不能在构造
函数中“逸出” 93
4.6.6 f?inal语义在处理器中的实现 94
4.6.7 JSR-133为什么要增强f?inal的
语义 95
4.7 happens-before 95
4.7.1 JMM的设计 95
4.7.2 happens-before的定义 97
4.7.3 happens-before规则 98
4.8 双重检查锁定与延迟初始化 100
4.8.1 双重检查锁定的由来 100
4.8.2 问题的根源 102
4.8.3 基于volatile的解决方案 104
4.8.4 基于类初始化的解决方案 105
4.9 Java内存模型综述 111
4.9.1 处理器的内存模型 111
4.9.2 各种内存模型之间的关系 112
4.9.3 JMM的内存可见性保证 114
4.9.4 JSR-133对旧内存模型的修补 115
4.10 JDK 9内存顺序模型 115
4.10.1 背景 115
4.10.2 Plain 116
4.10.3 Opaque 116
4.10.4 Release/Acquire 117
4.10.5 volatile 118
4.10.6 总结 118
4.11 本章小结 119
第5章 Java中的锁 120
5.1 Lock接口 120
5.2 队列同步器 122
5.2.1 队列同步器的接口与示例 122
5.2.2 队列同步器的实现分析 125
5.3 重入锁 136
5.4 读写锁 141
5.4.1 读写锁的接口与示例 141
5.4.2 读写锁的实现分析 143
5.5 StampedLock 146
5.5.1 StampedLock的接口与示例 147
5.5.2 StampedLock的实现分析 152
5.6 LockSupport工具 160
5.7 Condition接口 161
5.7.1 Condition的接口与示例 162
5.7.2 Condition的实现分析 164
5.8 本章小结 168
第6章 Java并发容器和框架 169
6.1 ConcurrentHashMap的实现
原理与使用 169
6.1.1 为什么要使用
ConcurrentHashMap 169
6.1.2 ConcurrentHashMap的结构 170
6.1.3 ConcurrentHashMap的
初始化 171
6.1.4 定位Segment 173
6.1.5 ConcurrentHashMap的操作 174
6.1.6 JDK 8中的
ConcurrentHashMap 175
6.2 ConcurrentLinkedQueue 175
6.2.1 ConcurrentLinkedQueue的
结构 176
6.2.2 入队列 176
6.2.3 出队列 179
6.3 Java中的阻塞队列 181
6.3.1 什么是阻塞队列 181
6.3.2 7个阻塞队列 182
6.3.3 阻塞队列的实现原理 186
6.4 Fork/Join框架 189
6.4.1 什么是Fork/Join框架 189
6.4.2 工作窃取算法 190
6.4.3 Fork/Join框架的设计 190
6.4.4 使用Fork/Join框架 191
6.4.5 Fork/Join框架的异常处理 192
6.4.6 Fork/Join框架的实现原理 193
6.5 本章小结 194
第7章 Java中的13个原子操作类 195
7.1 原子更新基本类型 195
7.2 原子更新数组类型 197
7.3 原子更新引用类型 198
7.4 原子更新字段类型 199
7.5 JDK 8中的原子更新新特性 200
7.6 本章小结 201
第8章 Java中的并发工具类 202
8.1 等待多线程完成的
CountDownLatch 202
8.2 同步屏障CyclicBarrier 204
8.2.1 CyclicBarrier简介 204
8.2.2 CyclicBarrier的应用场景 206
8.2.3 CyclicBarrier和
CountDownLatch的区别 208
8.3 控制并发线程数的Semaphore 209
8.4 线程间交换数据的Exchanger 210
8.5 本章小结 211
第9章 Java中的线程池 212
9.1 线程池的实现原理 212
9.2 线程池的使用 215
9.2.1 线程池的创建 215
9.2.2 向线程池提交任务 216
9.2.3 关闭线程池 217
9.2.4 合理地配置线程池 217
9.2.5 线程池的监控 218
9.3 本章小结 219
第10章 Executor框架 220
10.1 Executor框架简介 220
10.1.1 Executor框架的两级调度
模型 220
10.1.2 Executor框架的结构与成员 220
10.2 ThreadPoolExecutor详解 225
10.2.1 FixedThreadPool详解 225
10.2.2 SingleThreadExecutor
详解 226
10.2.3 CachedThreadPool详解 227
10.3 ScheduledThreadPoolExecutor
?详解 229
10.3.1 ScheduledThreadPoolExecutor的
运行机制 229
10.3.2 ScheduledThreadPoolExecutor的
实现 230
10.4 FutureTask详解 233
10.4.1 FutureTask简介 233
10.4.2 FutureTask的使用 235
10.4.3 JDK 6的FutureTask实现 236
10.4.4 JDK 8的FutureTask实现 238
10.5 本章小结 243
第11章 Java并发编程实践 244
11.1 生产者和消费者模式 244
11.1.1 生产者和消费者模式实战 245
11.1.2 多生产者和多消费者场景 247
11.1.3 线程池与生产者和消费者
模式 250
11.2 线上问题定位 250
11.3 性能测试 252
11.4 异步任务池 254
11.5 本章小结 256
第12章 分布式编程基础 257
12.1 分布式CAP原则 257
12.1.1 CAP原则简介 257
12.1.2 CAP原则证明 258
12.1.3 CAP原则思考 260
12.2 分布式事务:两阶段提交 262
12.2.1 分布式事务面临的挑战 262
12.2.2 拜占庭将军问题 263
12.2.3 两阶段提交协议 264
12.2.4 对两阶段提交的思考 265
12.3 分布式事务:TCC 266
12.3.1 TCC的主要优势 267
12.3.2 TCC的使用代价 269
12.3.3 支持TCC的Seata 270
12.3.4 一个基于Seata的参考
示例 273
12.4 分布式协议:RAFT 279
12.4.1 RAFT的运行流程 279
12.4.2 集群中断和恢复 280
12.5 分布式协议:Paxos 282
12.5.1 背景 282
12.5.2 Basic Paxos 285
12.5.3 Multi-Paxos 301
12.6 本章小结 306
第13章 分布式锁 308
13.1 什么是分布式锁 308
13.1.1 分布式锁的定义 308
13.1.2 使用分布式锁的原因 309
13.1.3 分布式锁的分类 309
13.2 实现分布式锁会遇到的问题 310
13.2.1 性能问题 311
13.2.2 正确性问题 313
13.2.3 可用性问题 313
13.2.4 成本问题 315
13.3 分布式锁框架 316
13.3.1 为什么需要分布式锁框架 317
13.3.2 分布式锁框架的组成 317
13.3.3 实现:基于Redis的
分布式锁 321
13.3.4 扩展:分布式锁访问日志 325
13.4 拉模式的分布式锁 327
13.4.1 什么是拉模式 327
13.4.2 拉模式需要注意的问题 329
13.4.3 Redis分布式锁实现 330
13.4.4 Redis分布式锁存在的
问题 333
13.4.5 扩展:本地热点锁 337
13.5 推模式的分布式锁 340
13.5.1 什么是推模式 341
13.5.2 ZooKeeper如何实现推模式的
分布式锁 343
13.5.3 Curator分布式锁 349
13.5.4 ZooKeeper分布式锁实现 351
13.5.5 ZooKeeper分布式锁存在的
问题 351
13.6 再看分布式锁 353
13.6.1 比选择推与拉更重要的
是什么 353
13.6.2 解锁胜于用锁 355
13.7 本章小结 357
第14章 分布式系统架构 358
14.1 分布式场景下的限流架构方案 358
14.1.1 限流算法 358
14.1.2 基于Redis的分布式限流 360
14.1.3 基于Sentinel的分布式
限流 365
14.2 分布式场景下的秒杀架构
方案 366
14.2.1 背景 366
14.2.2 需求分析 366
14.2.3 用例分析 367
14.2.4 秒杀流程图 367
14.2.5 关键设计:库存设计 368
14.2.6 关键设计:秒杀令牌 369
14.3 分布式场景下的高并发架构
方案 369
14.3.1 应对高并发的常用策略 369
14.3.2 减少强依赖 370
14.3.3 多层故障隔离 371
14.3.4 五种架构选型 372
14.3.5 三种缓存设计方案 372
14.4 分布式场景下的资损防控 372
14.4.1 资损的定义 372
14.4.2 如何进行资损防控 373
14.4.3 第一道防线:事前规避 373
14.4.4 第二道防线:事中定位 374
14.4.5 第三道防线:事后应急 375
14.4.6 如何进行资损演练 376
14.5 分布式场景下的稳定性保障 376
14.5.1 什么是稳定性保障 376
14.5.2 明确稳定性保障目标 376
14.5.3 如何进行稳定性保障 377
14.5.4 大促稳定性保障 380
14.6 本章小结 382