若obsidian中deepseek插件无法响应或生成异常,需检查本地服务、api配置及模型路径:一、用ollama部署deepseek-r1并配置text generator插件;二、用localgpt插件直连llama-server启动的deepseek服务;三、通过notion api桥接实现双向同步。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在Obsidian中直接调用DeepSeek模型实现智能笔记处理,但发现插件无法响应或生成内容异常,则可能是由于本地服务未启动、API配置错误或模型路径缺失所致。以下是解决此问题的步骤:
一、通过Ollama部署DeepSeek并对接Obsidian
该方法利用Ollama作为轻量级本地模型运行时,将DeepSeek-R1等量化模型加载为HTTP服务,再由Obsidian插件调用,无需暴露网络端口且支持离线运行。
1、访问ollama.com,下载并安装对应操作系统的Ollama客户端。
2、在终端执行命令拉取DeepSeek-R1-14B-GGUF模型:ollama run deepseek-r1:14b(若提示未找到,需手动添加Modelfile并使用ollama create构建)。
3、启动Ollama服务:ollama serve,确认其默认监听http://localhost:11434。
4、打开Obsidian,进入设置→社区插件→搜索并启用“Text Generator”插件。
5、在插件设置中,将API Base URL设为http://localhost:11434/api/chat,Model Name填入deepseek-r1:14b。
6、重启Obsidian,新建笔记,选中一段文本后右键选择“Generate text with DeepSeek”,即可触发本地推理。
二、使用localGPT插件直连DeepSeek本地推理服务
该方案绕过Ollama中间层,直接调用基于llama.cpp或transformers封装的DeepSeek服务,适用于需要精细控制temperature、repeat_penalty等参数的高级用户。
1、下载DeepSeek-R1-7B-Q4_K_M.gguf模型文件,保存至本地目录如~/models/deepseek-r1/。
2、使用llama-server启动服务:llama-server -m ~/models/deepseek-r1/DeepSeek-R1-7B-Q4_K_M.gguf -c 2048 --port 8080。
3、在Obsidian中启用“localGPT”插件,并进入其设置页。
4、勾选“Use custom LLM endpoint”,在Custom API URL栏填写:http://localhost:8080/chat。
5、在Model Parameters区域设置max_tokens为512,temperature为0.35,top_p为0.9。
6、保存设置后,在任意笔记中高亮文本,点击工具栏“Ask localGPT”按钮,等待响应插入。
三、通过Notion API桥接DeepSeek与Obsidian双向同步
该方法不依赖本地大模型运行,而是以Notion为AI处理中转站,利用DeepSeek API完成摘要与结构化,再通过Obsidian的RSS或Dataview插件自动拉取结果,适合注重隐私又缺乏GPU资源的用户。
1、在Notion中创建名为“AI知识加工池”的数据库,包含字段:“原始Markdown”、“DeepSeek摘要”、“关键词”、“状态”(Select类型,默认值为“待处理”)。
2、获取Notion Integration Token及数据库ID,编写Python脚本调用DeepSeek API:POST https://api.deepseek.com/v1/chat/completions,携带system提示词“你是一名专业知识整理员,请将以下Obsidian笔记提炼为3点核心结论,并提取3个关键词。”
3、脚本读取“状态=待处理”的首条记录,提取“原始Markdown”字段内容,构造messages数组后发送请求。
4、解析返回JSON中的choices[0].message.content,提取摘要与关键词,调用Notion API更新对应页面字段,并将“状态”改为“已处理”。
5、在Obsidian中安装“RSS Reader”插件,订阅Notion数据库公开RSS链接(需开启数据库共享并复制RSS Feed URL),设置自动刷新间隔为5分钟。











