可通过api代理、ollama+openwebui桥接或fastapi封装三种方式在一苇网调用deepseek模型:一、配置自定义openai兼容接口指向deepseek官方或本地api;二、用ollama运行模型并经openwebui提供标准api;三、用fastapi封装本地推理服务。

如果您希望在一苇网平台上调用DeepSeek系列模型,但发现模型未直接显示或调用失败,则可能是由于平台尚未内置DeepSeek官方API接入、模型授权未配置或接口协议不匹配所致。以下是实现一苇网调用DeepSeek模型的多种可行路径:
一、通过API代理方式接入DeepSeek官方接口
该方法绕过一苇网原生模型列表限制,利用其支持自定义后端的能力,将请求转发至DeepSeek开放API或本地部署服务。需确保一苇网允许配置外部LLM endpoint且支持Bearer Token鉴权。
1、登录一苇网管理后台,进入「模型设置」→「自定义大模型」模块。
2、点击「新增模型」,填写模型名称为DeepSeek-R1-0528,类型选择「OpenAI兼容接口」。
3、在API地址栏填入DeepSeek官方API基础URL:https://api.deepseek.com/v1;若使用私有部署,则填入本地服务地址如http://192.168.1.100:8000/v1。
4、在API密钥字段粘贴您的DeepSeek API Key,格式为sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx。
5、保存后,在对话界面选择该自定义模型,即可发起调用。
二、部署Ollama+OpenWebUI作为中间层桥接
当一苇网不支持直接配置OpenAI-style endpoint时,可借助Ollama运行DeepSeek本地模型,并通过OpenWebUI提供标准化API服务,再将一苇网指向该中间层。
1、在Linux服务器上执行命令安装Ollama:curl -fsSL https://ollama.com/install.sh | sh。
2、拉取DeepSeek官方量化模型:ollama run deepseek-coder:6.7b-q4_K_M(支持7B参数级轻量模型)。
3、启动OpenWebUI并绑定Ollama:docker run -d -p 3000:8080 -v openwebui:/app/backend/data --add-host=host.docker.internal:host-gateway -e OLLAMA_BASE_URL=http://host.docker.internal:11434 --name openwebui --restart always ghcr.io/open-webui/open-webui:main。
4、访问OpenWebUI的/api/openai端点(如http://your-server-ip:3000/api/openai),将其配置为一苇网的自定义模型后端。
三、使用FastAPI封装DeepSeek本地推理服务
适用于需完全控制输入输出格式、添加鉴权或日志审计的企业场景。通过Python快速构建符合OpenAI API规范的轻量服务,供一苇网调用。
1、创建requirements.txt,包含:transformers==4.30.2 torch==2.0.1 accelerate==0.21.0。
2、编写app.py,加载DeepSeek-V2-7B-Instruct模型并启用bfloat16推理:model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-v2-7b-instruct", torch_dtype=torch.bfloat16)。
3、使用uvicorn启动服务:uvicorn app:app --host 0.0.0.0 --port 8000 --workers 2。
4、在一苇网中新增模型,API地址设为http://your-fastapi-server:8000/v1,模型名称填入deepseek-v2-7b-instruct。











