若QClaw切换DeepSeek模型失败,需依次执行五步:一、配置SiliconFlow提供方并填入API密钥与模型ID;二、设其为默认主模型;三、添加别名并重启网关启用运行时切换;四、可选直连DeepSeek官方API;五、通过容器内命令及/info指令验证模型是否生效。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您已安装QClaw(OpenClaw)并希望将当前使用的模型切换为DeepSeek系列,但默认配置未生效或命令执行后模型未正确加载,则可能是由于模型提供方未配置、API密钥缺失、模型ID错误或网关未重启所致。以下是解决此问题的步骤:
一、通过命令行配置硅基流动(SiliconFlow)为DeepSeek服务提供商
该方法直接在宿主机终端中设置SiliconFlow作为模型后端,使QClaw能调用其托管的DeepSeek-V3或DeepSeek-R1等模型。需确保已获取硅基流动平台的有效API密钥。
1、访问硅基流动官网(https://www.siliconflow.cn/)完成注册并登录,进入「API密钥」管理页,复制生成的密钥。
2、在宿主机终端中执行以下命令,将“你的API Key”替换为实际密钥,并确认模型ID与硅基流动模型广场中一致(如Pro/deepseek-ai/DeepSeek-V3.2):
openclaw config set models.providers.siliconflow '{ "baseUrl": "https://api.siliconflow.cn/v1", "apiKey": "你的API Key", "api": "openai-completions", "models": [ { "id": "Pro/deepseek-ai/DeepSeek-V3.2", "name": "DeepSeek-V3.2" } ] }'
3、执行后无报错即表示配置写入成功,可通过 openclaw config get models.providers.siliconflow 验证输出是否含对应模型ID。
二、设置DeepSeek为默认主模型
该步骤指定QClaw在常规对话中优先调用DeepSeek模型,避免回退至其他已配置模型(如GLM-5或Kimi)。
1、执行命令设置primary模型为硅基流动提供的DeepSeek-V3.2:
openclaw config set agents.defaults.model.primary "siliconflow/Pro/deepseek-ai/DeepSeek-V3.2"
2、验证设置是否生效:
openclaw config get agents.defaults.model.primary
3、输出应精确显示 "siliconflow/Pro/deepseek-ai/DeepSeek-V3.2",不含多余空格或引号。
三、添加模型别名并启用运行时切换
该方法支持在不修改全局配置的前提下,于单次对话中快速切换模型,适用于对比测试或临时调用不同DeepSeek版本。
1、为DeepSeek-V3.2模型添加可识别的简短别名:
openclaw models aliases add deepseek "siliconflow/Pro/deepseek-ai/DeepSeek-V3.2"
2、重启QClaw网关以加载新别名和模型配置:
openclaw gateway restart
3、在任意聊天窗口中输入指令切换模型:
/model deepseek
四、使用自定义API端点直连DeepSeek官方服务
该方法绕过硅基流动中间层,直接对接DeepSeek官方API(需确认其是否开放公开接口)。适用于已有DeepSeek专属API密钥且追求最低延迟的用户。
1、确认DeepSeek官方API文档地址及可用模型列表(如 https://api.deepseek.com/v1/models)。
2、执行以下命令配置DeepSeek官方提供方(注意替换密钥与base URL):
openclaw config set models.providers.deepseek '{ "baseUrl": "https://api.deepseek.com/v1", "apiKey": "sk-xxx-your-deepseek-api-key", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat" } ] }'
3、将主模型设为该提供方下的模型ID:
openclaw config set agents.defaults.model.primary "deepseek/deepseek-chat"
4、再次执行 openclaw gateway restart 使配置生效。
五、验证模型切换结果
该步骤用于确认QClaw当前实际调用的模型身份,排除缓存或配置残留干扰。
1、进入容器内部执行模型列表查询:
docker exec openclaw openclaw models list
2、检查输出中是否存在状态为“configured”的 siliconflow/Pro/deepseek-ai/DeepSeek-V3.2 或 deepseek/deepseek-chat 条目。
3、在Web UI或CLI中发起一次新对话,发送指令 /info 或 /model,观察响应头部是否明确返回模型标识为 DeepSeek-V3.2 或 deepseek-chat。











