应依次检查ollama服务就绪状态、调大nginx超时参数、启用ollama_num_gpu/vram_limit限流、切换阿里云moltbot镜像部署、验证dns与防火墙通路。

如果您尝试通过Clawdbot访问Ollama后端服务,但频繁出现“504 Gateway Timeout”或连接中断现象,则很可能是反向代理层、网络路径或服务就绪状态未对齐所致。以下是解决此问题的步骤:
一、检查Ollama服务就绪状态
Ollama进程虽在运行,但模型加载未完成时即响应HTTP请求,会导致前端连接被挂起直至超时。必须确认服务真正进入可响应状态,而非仅进程存活。
1、执行命令查看Ollama服务是否监听正确端口:ollama serve && ss -tuln | grep :11434
2、启动模型后持续观察日志输出:ollama run qwen3:32b 2>&1 | grep -E "(loaded|ready|serving)"
3、等待终端明确输出"Serving at http://localhost:11434"后再启动Clawdbot前端调用。
二、配置Nginx反向代理超时参数
Nginx默认超时值(60秒)远低于Qwen3:32B首token生成所需时间,需延长连接、读取与发送超时阈值,避免网关提前切断长连接。
1、编辑Nginx配置文件:sudo nano /etc/nginx/sites-available/clawdbot
2、在location / {}块内添加以下三行:proxy_connect_timeout 300;
3、在相同位置追加:proxy_read_timeout 600;
4、再追加:proxy_send_timeout 600;
5、重载配置生效:sudo nginx -t && sudo systemctl reload nginx
三、启用Ollama原生环境变量限流控制
Ollama在高负载下可能因GPU上下文争抢导致响应延迟激增,通过环境变量约束资源分配可提升服务稳定性与响应确定性。
1、停止当前运行的Ollama实例:pkill -f "ollama serve"
2、使用显式资源限制启动服务:OLLAMA_NUM_GPU=1 OLLAMA_VRAM_LIMIT=20000000000 ollama serve
3、验证环境变量已生效:ps aux | grep ollama | grep VRAM
4、确保Clawdbot后端地址指向该受控服务实例,而非默认无参启动的进程。
四、切换至阿里云轻量应用服务器一键部署方案
本地部署易受硬件波动、网络策略及系统服务干扰影响;采用阿里云官方Moltbot(原Clawdbot)镜像可绕过全部中间环节,直接获得预调优的全链路服务。
1、登录阿里云轻量应用服务器控制台,选择“Moltbot官方镜像”创建实例。
2、在实例创建页勾选“自动对接百炼千问模型服务”与“启用钉钉消息通道”选项。
3、实例启动后,直接访问其公网IP加端口(如http://123.56.78.90:3000)进入Clawdbot Web界面。
4、无需配置Ollama、Nginx或环境变量,所有服务已在容器内完成就绪校验与超时优化。
五、验证DNS与防火墙通路完整性
Clawdbot前端若部署于不同主机,其向Ollama发起的请求可能被系统级防火墙或DNS解析异常拦截,需逐层确认基础网络可达性。
1、在Clawdbot所在机器执行:curl -v http://localhost:11434/api/tags(若为本地直连)
2、若为跨机访问,替换localhost为Ollama主机内网IP,并确认:telnet 192.168.1.100 11434返回Connected
3、检查Ubuntu系统防火墙是否放行端口:sudo ufw status | grep 11434
4、若使用WSL2,还需在Windows主机执行:netsh interface portproxy show v4tov4确认端口映射已启用。










