OpenClaw支持双用户协同操作,可通过四种方式实现:一、双通道实例(飞书+Telegram并行);二、双用户会话隔离(飞书多应用绑定);三、Web UI多标签页会话模拟;四、本地模型双推理实例(CPU/GPU资源切片)。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在同一台设备或多个终端上让两位用户同时与 OpenClaw 交互,例如协作处理任务或进行角色分饰的指令调度,则需启用其多会话隔离与并行响应能力。OpenClaw 本身不提供传统意义上的“双人同屏游戏”模式,但可通过配置多个独立会话上下文、分离通道实例及权限控制,实现两人协同操作同一 OpenClaw 实例的目标。以下是实现该目标的多种方法:
一、启动双通道实例(飞书 + Telegram 并行接入)
该方法通过为同一 OpenClaw 后端注册两个不同通信渠道,使两位用户分别使用飞书和 Telegram 账号接入,系统自动按 Channel ID 隔离会话状态,互不干扰。适用于物理位置分离但需共享同一 AI 助手资源的场景。
1、确保已安装最新版 OpenClaw:执行 npm install -g openclaw@latest 升级至 v2026.1.29 或更高版本。
2、在首次配置完成后,进入 OpenClaw 根目录,编辑配置文件 config.yaml,在 channels 字段下新增第二个 channel 块:
3、为飞书通道填写已创建的 App ID 与 App Secret,并启用 im:chat.members:bot_access 权限;为 Telegram 通道填写 Bot Token 及 webhook URL。
4、重启服务:执行 openclaw restart,观察日志中是否同时显示 Feishu channel initialized 和 Telegram channel initialized。
二、创建双用户会话隔离(基于飞书多应用绑定)
该方法利用飞书开放平台支持多个自建应用的特性,为每位用户分配独立的飞书机器人身份,所有消息均路由至同一 OpenClaw 实例,但通过 tenant_id 和 user_id 自动区分上下文,实现逻辑上的“双人同屏”体验。
1、登录 https://open.feishu.cn,重复创建第二个企业自建应用,命名为“助手-用户B”,获取其专属 App ID 与 App Secret。
2、在 OpenClaw 配置中启用 multi-tenant 模式:运行命令 openclaw config set multi_tenant true。
3、将第二个飞书应用的凭证写入 channels/feishu-b/config.json,确保与主应用配置路径分离。
4、启动时加载双配置:执行 openclaw start --channel-configs channels/feishu-a/,channels/feishu-b/。
三、Web UI 多标签页会话模拟(本地单机双人协作)
该方法适用于同一台电脑由两人轮流操作,借助 OpenClaw 内置 Web 控制台的会话令牌机制,在不同浏览器标签页中加载独立会话,避免上下文混淆。每个标签页拥有唯一 session_id,AI 将分别维护对话历史。
1、确保已启用 Web UI:在 onboarding 过程中选择启用 Dashboard,或手动执行 openclaw dashboard --enable。
2、打开浏览器访问 http://127.0.0.1:18789,点击右上角“新建会话”按钮,生成第一个会话链接。
3、复制该链接,在新标签页中粘贴并打开,此时系统自动分配新 session_id;第二位用户可使用同一链接但添加参数 ?session=alt-user-2 强制初始化独立上下文。
4、两位用户可在各自标签页中发送指令,如“查询张三的待办事项”与“检查李四的邮箱”,OpenClaw 将分别调用对应记忆模块返回结果。
四、本地模型双推理实例(CPU/GPU 资源切片)
该方法针对高阶用户,通过启动两个独立的 Ollama 模型服务实例(如 llama2 与 qwen2),并分别绑定至不同 OpenClaw Agent,使两位用户获得差异化响应风格与知识边界,增强角色扮演类协作的真实感。
1、拉取两个模型:执行 ollama pull llama2 与 ollama pull qwen2。
2、启动双服务端口:运行 OLLAMA_HOST=127.0.0.1:11435 ollama serve(后台另启终端运行)。
3、在 OpenClaw 中定义两个 Agent 配置,分别指向 http://localhost:11434/api/generate 与 http://localhost:11435/api/generate。
4、通过 Channel 规则路由:在 rules.yaml 中设置匹配条件,例如“含‘严肃模式’字样的消息交由 llama2 处理”,其余交由 qwen2。











