需集群化部署workbuddy以实现多节点协同、高可用与统一管理,包括准备kubernetes/docker swarm环境、部署control plane、扩展worker节点、集成claw网关及配置多模型推理服务网格。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在企业环境中规模化运行 WorkBuddy,实现多节点协同、高可用任务分发与统一管理,则需进行集群化部署。以下是完成 WorkBuddy 集群部署的具体操作路径:
一、准备集群基础环境
集群部署依赖标准化的容器运行时与服务发现机制,需预先配置 Kubernetes 集群(v1.24+)或 Docker Swarm 环境,并确保各节点时间同步、网络互通、存储卷可挂载。WorkBuddy 集群组件通过 gRPC 通信,所有节点必须开放 50051–50053 端口用于 Agent 协调与 Claw 调度。
1、在主控节点安装 kubectl 与 helm v3.12+,并验证集群状态为 Ready。
2、为 WorkBuddy 创建专用命名空间:kubectl create namespace workbuddy-system。
3、部署 etcd 集群(3节点最小高可用配置),用于持久化任务状态与 Skills 元数据。
4、配置 NFS 或 CSI 存储类,挂载至 /data/workbuddy/shared,供所有 Worker 节点共享 Skills 包与临时沙箱目录。
二、部署核心控制平面
Control Plane 是集群的调度中枢,负责接收 Claw 指令、解析任务图、分配执行单元并聚合结果。该组件以 StatefulSet 形式部署,需绑定固定 PVC 保障元数据一致性。
1、下载官方集群 Helm Chart:helm pull codebuddy/workbuddy-cluster --version 1.8.0 --untar。
2、修改 values.yaml 中 controlPlane.replicas=1,设置 controlPlane.storage.className 为已就绪的存储类名称。
3、启用 TLS 双向认证:将自签名 CA 证书、server.crt 与 server.key 放入 secrets/tls-controlplane,并设 controlPlane.tls.enabled=true。
4、执行部署:helm install wb-control -n workbuddy-system ./workbuddy-cluster。
三、扩展 Worker 节点组
Worker 节点承载实际任务执行,每个 Pod 运行独立的 WorkBuddy 实例并挂载本地 GPU(如启用多模态技能)与文件系统权限。支持按负载类型打标签实现技能亲和调度。
1、为 GPU 节点添加标签:kubectl label node gpu-node-01 workbuddy/skill=multimodal。
2、编辑 values.yaml,设置 workerGroup.gpu.enabled=true,并指定 nvidia.com/gpu: 1。
3、配置 Skills 镜像仓库地址:workerGroup.skillsRegistry=https://hub.codebuddy.cn/skills,确保所有节点可拉取 private/sales-report-v2:1.3 等私有技能镜像。
4、部署 Worker 组:helm install wb-worker -n workbuddy-system ./workbuddy-cluster --set workerGroup.replicas=3。
四、集成 Claw 远程接入网关
Claw Gateway 是集群对外统一入口,承接来自企微、飞书、钉钉等平台的 Webhook 请求,完成身份校验、指令路由与响应回传。它不执行任务,仅做协议转换与流量分发。
1、在企业微信管理后台创建机器人,选择「API模式」→「URL回调」,获取 Token 与 EncodingAESKey。
2、将 Token 与 Key 写入 Kubernetes Secret:kubectl create secret generic claw-webhook -n workbuddy-system --from-literal=token=xxx --from-literal=aeskey=yyy。
3、启用 gateway.ingress.enabled=true,配置 TLS 证书并绑定公网域名 claw.yourcompany.com。
4、验证网关连通性:curl -X POST https://claw.yourcompany.com/v1/invoke -H "Content-Type: application/json" -d '{"platform":"wx","msg":"测试指令"}'。
五、配置多模型推理服务网格
WorkBuddy 集群支持 Hunyuan、DeepSeek、GLM 等模型动态路由,需部署 vLLM 或 Triton 推理服务器作为后端,并通过 MCP 协议注册至 Control Plane 的模型目录。
1、在独立节点部署 vLLM 服务:python -m vllm.entrypoints.api_server --model tencent/hunyuan-pro-32b --tensor-parallel-size 4 --host 0.0.0.0 --port 8080。
2、向 Control Plane 注册模型:curl -X POST http://wb-control-svc:50051/v1/models/register -H "Content-Type: application/json" -d '{"name":"hunyuan-pro","endpoint":"http://vllm-svc:8080","type":"llm","priority":9}'。
3、为特定 Skills 指定模型:编辑 skills/sales-report-v2/meta.yaml,在 runtime.model 字段填入 hunyuan-pro。
4、重启对应 Worker Pod,使模型绑定生效:kubectl delete pod -n workbuddy-system -l app.kubernetes.io/name=workbuddy-worker。










