可通过五种途径获取DeepSeek提示词库:一、官方Prompt Library网页;二、GitHub仓库示例文件;三、Hugging Face模型卡片提示区;四、社区开源Prompt工程仓库;五、Ollama本地CLI内置模板。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您正在寻找 DeepSeek 模型可用的提示词(Prompt)资源,但无法快速定位权威、结构化、可直接复用的提示词集合,则可能是由于官方入口分散或第三方整理未被系统识别。以下是获取 DeepSeek 提示词库的多种有效途径:
一、访问 DeepSeek 官方提示词库网页
DeepSeek 官方维护了一个独立的 Prompt Library 页面,集中收录了经模型验证的典型场景提示模板,覆盖代码生成、多轮对话、角色扮演、指令遵循等类别,所有条目均标注适用模型版本与预期输出格式。
1、打开浏览器,访问 https://api-docs.deepseek.com/zh-cn/prompt-library/。
2、页面加载完成后,使用顶部搜索框输入关键词(如“SQL”“Python调试”“法律咨询”)筛选对应模板。
3、点击任一模板条目,查看完整 prompt 结构,包括 system 角色设定、user 输入样例及 assistant 理想响应。
二、查阅 DeepSeek 官方 GitHub 仓库中的示例文件
DeepSeek 的开源项目仓库中嵌入了大量真实运行过的提示词用例,尤其在 notebooks 和 examples 目录下,以 Jupyter Notebook 或 Markdown 形式呈现,具备可执行性与上下文完整性。
1、打开浏览器,访问 https://github.com/deepseek-ai。
2、在仓库列表中查找名称含 DeepSeek-Coder 或 DeepSeek-VL 的项目(例如 deepseek-coder-33b-instruct、deepseek-vl-7b-chat)。
3、进入对应仓库后,点击 Examples 或 notebooks 目录,浏览其中的 .ipynb 或 .md 文件,定位内嵌的 prompt 示例段落。
三、使用 Hugging Face 上的官方模型卡片提示区
Hugging Face 是 DeepSeek 官方认证的模型发布平台,其模型卡片页明确标注了推荐的 prompt 格式、角色分段方式及多轮交互规范,内容由模型团队直接维护,具备最高时效性与准确性。
1、访问 https://huggingface.co/deepseek-ai。
2、从模型列表中选择具体型号,例如 deepseek-coder-33b-instruct 或 deepseek-vl-7b-chat。
3、向下滚动至 Usage 或 Prompt Format 区域,复制标注为 system、user、assistant 的三段式结构示例。
四、检索社区验证的开源 Prompt 工程仓库
GitHub 上存在多个由开发者持续维护的 DeepSeek 专用提示工程库,这些项目经过实际推理测试,附带性能对比数据与失败案例分析,适合进阶用户参考与复用。
1、在 GitHub 搜索栏输入关键词 "deepseek prompt engineering" 或 "deepseek-prompts"。
2、筛选条件设为:star 数 ≥ 50、最近更新时间在 3 个月内、README 中明确声明支持 DeepSeek 模型(如 deepseek-r1、deepseek-coder)。
3、进入目标仓库后,重点查看 templates/、prompts/ 或 examples/ 目录下的 JSON、TXT 或 YAML 文件,提取结构化 prompt 片段。
五、通过 Ollama 本地 CLI 获取内置提示模板
Ollama 提供对 DeepSeek 模型的轻量级封装,其命令行工具在成功拉取模型后,可直接调用内置 help 命令输出官方推荐的基础 prompt 样式,适用于本地快速验证与调试。
1、确保已安装 Ollama 并运行服务,终端执行:ollama list 确认 deepseek 相关模型是否存在。
2、若未安装,执行:ollama pull deepseek-ai/deepseek-coder:6.7b-instruct(以实际可用 tag 为准)。
3、模型拉取完成后,运行:ollama show deepseek-ai/deepseek-coder:6.7b-instruct --modelfile,查看输出中包含的默认 system prompt 与交互范式。











