RPC客户端负载均衡核心是智能选节点而非自建服务发现,需支持动态更新、可插拔策略(轮询/随机/最小连接)及失败重试;gRPC推荐用内置balancer机制,net/rpc则需手动封装分发器。

理解RPC客户端负载均衡的核心目标
在Go中实现RPC客户端的负载均衡,本质不是自己造轮子去维护服务发现和健康检查,而是让客户端能从多个可用节点中智能选择一个发起请求。关键在于:节点列表动态可更新、选择策略可插拔(如轮询、随机、最小连接)、失败时自动重试或切换节点。
使用gRPC + balancer(推荐现代方案)
如果你用的是gRPC(Go官方RPC框架),直接利用其内置的red">resolver和balancer机制是最稳妥的方式。不需要手写分发逻辑,只需注册自定义解析器或选用已支持的策略。
- 默认支持
round_robin、weighted_round_robin(v1.60+),启用方式简单:
conn, _ := grpc.Dial("my-service",
grpc.WithTransportCredentials(insecure.NewCredentials()),
grpc.WithDefaultServiceConfig(`{"loadBalancingConfig": [{"round_robin": {}}]}`),
)
- 若需对接Consul/Etcd/ZooKeeper等注册中心,可实现
resolver.Builder,监听服务实例变更并推送新地址列表给gRPC内部负载均衡器。 - 避免自己在客户端循环调用
grpc.Dial——每个ClientConn应复用,负载均衡由gRPC底层在SubConn粒度完成。
基于net/rpc的手动负载均衡(兼容老项目)
若仍在用标准net/rpc(HTTP或TCP传输),它本身不带负载均衡能力,需在客户端封装一层分发器。
- 维护一个节点地址切片(如
[]string{"10.0.1.10:8080", "10.0.1.11:8080"}),配合健康检查定时更新(例如通过心跳或GET /health探针)。 - 封装
RPCClient结构体,内嵌选择策略(如带原子计数的轮询):
type RPCClient struct {
nodes []string
mu sync.RWMutex
cursor uint64 // atomic
}
func (c *RPCClient) nextNode() string {
n := uint64(len(c.nodes))
if n == 0 {
return ""
}
idx := atomic.AddUint64(&c.cursor, 1) % n
return c.nodes[idx]
}
func (c *RPCClient) Call(serviceMethod string, args, reply interface{}) error {
for i := 0; i < len(c.nodes); i++ {
node := c.nextNode()
client, err := rpc.DialHTTP("tcp", node)
if err != nil {
continue // 跳过不可达节点
}
err = client.Call(serviceMethod, args, reply)
client.Close()
if err == nil {
return nil
}
}
return errors.New("all nodes failed")
}
- 注意:每次
Call都新建连接开销大,建议复用*rpc.Client并做连接池(如用sync.Pool管理),或改用长连接+重连机制。
补充:结合中间件提升鲁棒性
真实场景中,光选节点不够,还需容错和降级:
立即学习“go语言免费学习笔记(深入)”;
- 超时控制:对每个节点调用设置独立上下文超时(
context.WithTimeout),避免卡死。 - 熔断:引入
sony/gobreaker等库,在连续失败后临时剔除节点。 - 重试:仅对幂等方法(如查询)做有限次数重试,配合指数退避。
- 权重支持:若节点性能不均,可在节点结构中加入
Weight int字段,实现加权随机或加权轮询。










