ZooKeeper分布式锁基于临时顺序节点与节点监听实现,利用强一致性、会话绑定和有序性支持公平、可重入、自动释放;客户端创建临时顺序节点后,仅监听前驱节点,避免羊群效应,释放锁即删除自身节点,由ZooKeeper链式唤醒后续等待者。

ZooKeeper 分布式锁靠临时顺序节点 + 节点监听实现,核心是利用 ZooKeeper 的强一致性、会话绑定和有序性,天然支持公平、可重入、自动释放,不依赖超时续租,也不怕客户端宕机。
临时顺序节点是锁排队的基础
ZooKeeper 允许在指定路径(比如 /locks)下创建临时顺序节点(EPHEMERAL_SEQUENTIAL)。每次创建,ZK 自动追加递增序号,如:/locks/lock-0000000001/locks/lock-0000000002/locks/lock-0000000003
这些节点:
• 会话断开时自动删除 → 防止死锁
• 序号严格递增 → 天然形成 FIFO 队列
• 同级唯一 → 不会出现重复节点
谁排第一谁拿锁,其余等待前一个节点
每个客户端创建完自己的节点后,执行三步判断:
• 获取 /locks 下所有子节点列表
• 按名称排序(字符串排序即可,因序号固定10位)
• 判断自己是否为最小节点(即排在第 0 位)
如果是最小,直接获得锁;否则:
• 找出比自己序号小的前一个节点(如自己是 -0000000005,就找 -0000000004)
• 对该前驱节点调用 exists() 并注册 Watcher
• 等待它被删除(持有锁者释放或崩溃),触发回调后重新检查
释放锁就是删掉自己的节点
持有锁的客户端完成业务后,只需删除自己创建的临时节点。ZooKeeper 会立刻通知下一个等待者(即监听了刚删节点的那个客户端),它收到 NodeDeleted 事件后,再次检查自己是否变成最小节点 —— 是则上锁,否则继续监听新的前驱节点。整个过程无轮询、低开销、链式唤醒。
避免羊群效应的关键优化
如果不加限制,所有客户端都对 /locks 目录做 getChildren() 并设 Watcher,一旦有节点删除,ZK 会广播通知全部客户端,造成“羊群效应”。真实实现中必须:
• 只监听紧邻前一个节点,而不是整个父目录
• 使用 zk.exists(path, watcher) 而非 zk.getChildren(path, watcher)
• 前驱节点不存在?说明自己已是第一个,可立即获取锁
基本上就这些。用原生 API 写几十行就能跑通,但生产环境建议直接用 Curator 的 InterProcessMutex —— 它已封装重试、可重入、会话恢复等细节,稳定又省心。











