pycharm中集成deepseek大模型需通过插件、openai兼容服务或python脚本三种方式:一、安装支持自定义llm的ai assistant插件并配置api地址与密钥;二、本地部署deepseek服务(如ollama/vllm),在ai assistant中选择openai compatible并填写base url、模型名;三、在terminal运行python脚本调用deepseek rest api。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在PyCharm中直接调用DeepSeek大模型进行代码补全、解释或生成,则需通过第三方插件或本地API方式实现集成。以下是实现此目标的具体操作路径:
一、使用JetBrains官方插件市场中的AI Assistant插件
部分第三方开发者已基于DeepSeek开源模型封装了兼容IntelliJ平台的插件,可通过插件市场安装后配置模型API端点。该方式无需本地部署模型,依赖HTTP接口通信。
1、启动PyCharm,点击 File → Settings → Plugins(macOS为 PyCharm → Preferences → Plugins)。
2、在搜索框中输入 AI Assistant 或 DeepSeek,查找名称含“DeepSeek”或支持自定义LLM后端的插件。
3、点击 Install 安装插件,重启PyCharm。
4、进入 Settings → Tools → AI Assistant,将 API Base URL 设置为运行中的DeepSeek服务地址(如 http://localhost:8000/v1)。
5、在 API Key 字段填入对应认证密钥(若服务启用鉴权),保存配置。
二、配置OpenAI兼容模式的DeepSeek本地服务
DeepSeek-Coder等模型可通过vLLM、llama.cpp或Ollama提供OpenAI风格REST API,PyCharm可将其识别为标准OpenAI后端。该方式要求本地已部署推理服务并暴露/openai/v1/chat/completions接口。
1、在终端执行命令启动DeepSeek模型服务,例如使用Ollama:ollama run deepseek-coder:6.7b(需提前拉取对应模型)。
2、确认服务监听地址与端口,Ollama默认为 http://localhost:11434;若使用vLLM,需指定 --host 0.0.0.0 --port 8000 --served-model-name deepseek-coder。
3、返回PyCharm,在 Settings → Tools → AI Assistant → Provider 中选择 OpenAI Compatible。
4、填写 Base URL(如 http://localhost:11434/v1),API Key 留空或填 ollama(依服务要求)。
5、在 Model Name 栏输入服务注册的模型标识,例如 deepseek-coder:6.7b 或 deepseek-coder。
三、通过Python脚本+PyCharm Terminal手动调用
当插件不可用或需调试请求细节时,可在PyCharm内置Terminal中运行Python脚本,向DeepSeek API发送HTTP请求。该方式绕过IDE集成,适用于快速验证模型响应与格式。
1、确保系统已安装 requests 库:pip install requests。
2、在项目根目录新建文件 deepseek_call.py,写入如下内容:
import requests
url = "http://localhost:8000/v1/chat/completions"
headers = {"Content-Type": "application/json"}
data = {
"model": "deepseek-coder",
"messages": [{"role": "user", "content": "写一个Python函数,计算列表中正数的平方和"}]
}
response = requests.post(url, headers=headers, json=data)
print(response.json().get("choices")[0]["message"]["content"])
3、右键点击脚本文件,选择 Run 'deepseek_call',观察控制台输出结果。
4、根据实际部署的API路径、模型名及鉴权方式,修改脚本中 url、headers 和 data 字段。











