CQRS 不该从“写模型”开始设计,而应先确保读写模型物理隔离,仅通过事件通信,写端专注校验与发事件,读端专注投影与查询优化。

为什么 Go 的 CQRS 不该从“写模型”开始设计
多数人一提 CQRS 就急着拆 Command 和 Query 结构体,结果读写两边共享同一套 ORM 模型,字段耦合、缓存失效、查询变慢——根本没分离,只是起了两个名字。
真正起效的前提是:读模型和写模型物理隔离。写端只管校验、领域事件发布;读端只管投影、索引、缓存组装。两者之间唯一合法通信渠道是 event(比如 UserCreatedEvent),不能直接调用、不能共享 struct、不能共用数据库表。
- 写模型用 PostgreSQL + 领域事务,字段精简,含业务约束(如
email必须唯一) - 读模型用 PostgreSQL 只读副本 或 Redis + Elasticsearch,字段按查询场景展开(如
user_profile_view含头像 URL、最近登录时间、粉丝数) - 投影服务(
ProjectionService)监听事件流,异步更新读库;失败时重试需幂等,靠event_id去重
Go 里怎么安全地实现事件驱动的读模型更新
常见错误是把事件处理写成同步 HTTP handler 里的逻辑,或塞进事务里——一旦投影失败,整个命令失败,违背 CQRS “最终一致性”前提。
正确做法是:命令成功提交后,由独立 goroutine 或消息队列(如 Kafka、NATS)触发投影。Go 标准库的 sync.Map 适合做本地去重缓存,但跨进程必须依赖外部存储的 event_id 记录。
立即学习“go语言免费学习笔记(深入)”;
- 每个投影 handler 开头查
processed_events表,跳过已处理的event_id - 更新读库前先
INSERT INTO processed_events (event_id) VALUES ($1) ON CONFLICT DO NOTHING,再执行业务更新 - 避免在 handler 里做耗时操作(如 HTTP 调用),否则阻塞事件流;需要外调时发到另一个队列异步处理
- 用
context.WithTimeout控制单次投影超时,防止卡死
读模型查询性能崩了?先检查是不是用了 JOIN
Go 应用里最常踩的坑:为“省事”在读模型层写 SELECT * FROM users JOIN profiles JOIN addresses,结果 PostgreSQL 执行计划走 nested loop,QPS 掉到个位数。
CQRS 的读模型本质是“反范式化”,不是“不建模”。字段冗余不可怕,可怕的是运行时拼装。投影阶段就应该把关联数据展开,存在一张宽表里,查询时只命中单表 + 索引。
- 不要在
GetUserProfile函数里调GetUserByID再调GetAddressByUserID—— 这是 RPC 思维,不是 CQRS - 宽表字段命名带上下文,如
profile_avatar_url、address_full_text,避免歧义 - PostgreSQL 上给高频查询字段建复合索引,例如
CREATE INDEX idx_user_status_created ON user_profile_view (status, created_at) - 如果宽表太大(>50 字段),拆成按场景分片:如
user_search_view(含全文检索字段)、user_analytics_view(含聚合统计字段)
为什么本地开发时 CQRS 架构总显得“过度设计”
因为你在用 SQLite + 单 goroutine 模拟最终一致性——事件没丢、没重、没延迟,投影秒完成,看不出异步优势,反而多出一堆 handler 和表。
真实压测下才会暴露问题:写请求突增时,事件队列积压,读模型滞后;网络分区时,部分投影失败;灰度发布时,新旧事件格式不兼容。这些必须在本地用故障注入验证。
- 用
time.Sleep在投影 handler 开头模拟延迟,观察查询返回陈旧数据是否可接受 - 手动删掉一条
processed_events记录,重启服务看是否重复投影(应幂等) - 改写一个事件结构体(如加字段),不升级投影代码,看是否 panic —— 正确做法是用
json.RawMessage解析未知字段 - 别在
main.go里启动所有服务;用./cmd/query和./cmd/write分开编译部署,才能真正测试边界
复杂点从来不在代码行数,而在事件时序、失败恢复路径、以及团队对“最终一致”的容忍阈值。没经历过一次线上投影卡住两小时的事故,就很难真正理解 CQRS 的取舍。











