需通过continue.dev或codegeex等插件接入deepseek,配置本地ollama运行deepseek-coder:33b并用反向代理映射端口,再在插件中设置api地址、模型名和dummy密钥,最后用python代码补全验证。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在 VSCode 中使用 DeepSeek 模型进行代码补全、解释或生成,则需要通过支持 LLM 的编程插件接入 DeepSeek 提供的 API 或开源模型。以下是完成 DeepSeek 接入 VSCode 的具体配置步骤:
一、安装支持自定义 LLM 的插件
VSCode 原生不直接支持 DeepSeek,需借助具备本地/远程大模型调用能力的扩展实现集成。当前主流兼容插件为 Continue.dev 和 CodeGeeX(部分版本支持自定义后端)。
1、打开 VSCode,点击左侧活动栏的扩展图标(或按 Ctrl+Shift+X)。
2、在搜索框中输入 Continue,找到官方插件 Continue.dev,点击“安装”。
3、安装完成后,重启 VSCode 以激活插件。
二、配置 Continue 插件指向 DeepSeek API
Continue 支持通过 custom server 方式对接任意兼容 OpenAI 格式的 API 服务。DeepSeek-VL 或 DeepSeek-Coder 的官方 API 尚未完全开放,但可通过部署开源推理服务(如使用 vLLM 或 Ollama 运行 DeepSeek-Coder-33B)提供兼容接口。
1、在 VSCode 中按下 Ctrl+Shift+P,输入 Continue: Open Config 并回车。
2、在打开的 config.json 文件中,将 models 数组替换为以下结构:
3、在 models 字段内添加如下对象:
"name": "deepseek-coder",
"contextLength": 16384,
"model": "deepseek-coder:33b",
"apiBase": "http://localhost:8000/v1",
"apiKey": "dummy"
三、本地运行 DeepSeek-Coder 推理服务(Ollama 方式)
Ollama 提供轻量级本地模型运行环境,已支持 deepseek-coder 系列模型。该方式无需申请 API 密钥,全部请求在本地完成。
1、前往 https://ollama.com/download 下载并安装 Ollama。
2、打开终端,执行命令:ollama run deepseek-coder:33b,首次运行将自动拉取模型文件。
3、另起终端,运行:ollama serve 启动本地 API 服务(默认监听 127.0.0.1:11434)。
4、若需 OpenAI 兼容格式,使用反向代理工具(如 openai-forward)将 11434 端口映射为 8000 端口并转换路由。
四、使用 CodeGeeX 插件切换至 DeepSeek 模型(替代方案)
CodeGeeX 插件支持插件内切换后端模型,部分开发分支已内置 DeepSeek-Coder 模型选项,适用于快速验证基础功能。
1、在扩展市场中搜索并安装 CodeGeeX 插件。
2、安装后点击右下角状态栏的 CG 图标,选择“设置” > “Model Provider”。
3、在 Provider 列表中选择 Custom OpenAI API。
4、填写 API 地址为 http://localhost:8000/v1,模型名称填 deepseek-coder,密钥留空或填任意字符串。
五、验证 DeepSeek 接入是否生效
配置完成后,需通过实际代码交互确认模型响应正常,避免因端口冲突、模型未加载或路由错误导致静默失败。
1、新建一个 .py 文件,输入 def fibonacci(,然后按下 Ctrl+Enter 触发补全。
2、观察右下角状态栏是否显示 deepseek-coder 正在思考中。
3、若出现补全建议且内容符合 Python 语法与逻辑,则表示接入成功。
4、若提示“connection refused”,请检查 Ollama 是否运行、端口映射是否启用、config.json 中 apiBase 地址是否拼写正确。











