Go中RPC负载均衡核心是调用前选择目标节点,常用轮询和加权分配策略;轮询用atomic.Int64实现并发安全的循环索引,需配合健康检查;加权分配推荐平滑加权轮询算法,避免虚拟节点内存膨胀;gRPC可通过自定义Balancer集成,自研框架可在client.Call前插入selector层;需结合健康探测、连接池、一致性哈希等提升生产鲁棒性。

在 Go 语言中实现 RPC 负载均衡,核心是拦截客户端的调用请求,在发起实际 RPC 连接前,从多个服务节点中选择一个目标地址。轮询(Round Robin)和加权分配(Weighted Round Robin)是最常用且易于实现的两种策略。它们不依赖外部组件,可直接嵌入 client 端或独立的负载均衡代理中。
轮询策略:简单、公平、无状态
轮询策略按顺序轮流选择后端节点,适合各节点性能相近、健康状态一致的场景。关键在于维护一个共享的索引计数器,并保证并发安全。
- 使用 atomic.Int64 存储当前下标,避免锁开销
- 每次选节点时对节点总数取模,实现循环效果
- 需配合节点健康检查(如心跳或熔断),跳过不可用节点,否则会降低可用性
示例逻辑片段:
idx := atomic.AddInt64(&counter, 1) % int64(len(nodes))target := nodes[idx]
加权分配策略:按能力分配流量
加权分配让高配置或低负载的服务节点承担更多请求。常见做法是扩展轮询逻辑,将权重转化为“虚拟节点”数量,或采用更精确的平滑加权轮询(Smooth Weighted Round Robin)算法。
立即学习“go语言免费学习笔记(深入)”;
- 推荐使用平滑加权法:每个节点维护当前权重(current_weight)和原始权重(weight),每次选择 current_weight 最大的节点,并更新其 current_weight = current_weight - total_weight;其余节点 current_weight += weight
- 初始化时所有 current_weight 设为对应 weight,首次选择即体现权重优势
- 相比简单重复添加虚拟节点,该方法避免了权重过大时内存膨胀,也更公平
集成到 Go RPC 客户端
Go 标准库 net/rpc 不内置负载均衡,但可通过封装 rpc.Client 实现。更常见的是对接 gRPC(google.golang.org/grpc),它原生支持自定义 Resolver 和 Balancer。
- 对于 gRPC:实现 balancer.Balancer 接口,重写 Pick 方法返回目标连接;注册时传入自定义 balancer builder
- 对于自研 RPC 框架:在 client.Call 前插入 selector 层,统一管理节点列表与选择逻辑
- 无论哪种方式,都建议将节点发现(如 DNS、etcd、consul)与负载策略解耦,selector 只负责“选”,不负责“找”
注意事项与优化点
真实生产环境不能只靠静态策略。需结合动态因素提升鲁棒性:
- 健康探测:定期 ping 或复用连接上的失败统计,自动剔除异常节点
- 连接复用:避免每次 Pick 后新建连接,应维护连接池并绑定到具体后端
- 一致性哈希(可选):对 key 敏感的场景(如缓存、会话),可结合一致性哈希减少节点变动带来的抖动
- 超时与重试隔离:单个节点失败不应影响全局策略状态,重试应走新一次 Pick,而非固定 fallback










