anythingllm私有知识库搭建需依次完成五步:一、创建命名规范的工作区;二、在工作区设置中绑定ollama本地大模型(如deepseek-r1:1.5b);三、在全局设置中配置ollama嵌入模型nomic-embed-text与lancedb向量数据库;四、上传支持格式文档并等待“已嵌入”状态;五、通过带来源标注的精准问答验证rag生效。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您已安装AnythingLLM桌面端,但尚未构建可用的知识库,则可能是由于工作区未创建、文档未上传或模型未正确关联。以下是搭建私有知识库的具体步骤:
一、创建新工作区
工作区是AnythingLLM中组织知识的基本单元,所有文档、模型配置和聊天历史均绑定于特定工作区。只有在工作区内完成后续操作,知识库才能生效。
1、启动AnythingLLM桌面应用,等待右下角系统托盘图标出现并显示为绿色状态。
2、点击左侧导航栏顶部的+ 新建工作区按钮。
3、在弹出窗口中输入工作区名称,例如技术文档库或项目合同归档,不支持中文标点及空格开头。
4、点击Save保存,页面自动跳转至该工作区主界面。
二、配置本地大语言模型
模型配置决定知识库的回答能力与响应风格。若未指定模型,系统将使用默认在线模型,无法实现纯本地运行;必须显式绑定Ollama托管的DeepSeek-R1等本地模型。
1、进入工作区后,点击右上角齿轮图标打开工作区设置。
2、在左侧菜单中选择聊天设置,确保右侧“工作区聊天模型”选项处于启用状态。
3、在模型搜索框中输入ollama,从下拉列表中选择Ollama (via HTTP)。
4、在“Ollama模型名称”字段中填写已拉取的模型标识,例如:deepseek-r1:1.5b(需与ollama list输出完全一致)。
5、在“Ollama基础URL”中填入http://127.0.0.1:11434,确认端口与本地Ollama服务一致。
6、向下滚动至底部,点击保存更改按钮。
三、配置嵌入模型与向量数据库
嵌入模型负责将上传文档转化为向量,向量数据库则存储并检索这些向量。二者缺一不可,否则文档无法参与RAG问答流程。
1、点击左下角设置(扳手图标),进入全局设置页面。
2、选择左侧嵌入引擎首选项。
3、在“嵌入引擎提供商”中选择Ollama。
4、在“Ollama嵌入模型”下拉框中选择nomic-embed-text;如未显示,请先在终端执行:ollama pull nomic-embed-text。
5、确认“向量数据库提供商”为默认的LanceDB(无需额外配置)。
6、点击页面右下角保存按钮。
四、上传并解析文档
文档需经向量化处理后才可被检索。AnythingLLM支持PDF、DOCX、TXT、MD、CSV、PPTX等多种格式,但不支持加密PDF或扫描图片型PDF。
1、返回已创建的工作区主界面,点击中间区域的上传文件按钮,或直接拖拽文件至虚线框内。
2、选中待入库的文件,如API设计规范_v2.1.pdf、会议纪要_2026Q1.md等,单次最多支持20个文件。
3、上传完成后,文件列表下方出现移动到工作区按钮,点击执行导入。
4、观察右上角进度条,状态变为已嵌入且数字不再变化,表示向量化完成(300页PDF约需90秒)。
五、验证知识库可用性
验证环节用于确认文档内容已被正确索引并可触发RAG响应,而非仅测试模型本身是否运行正常。
1、在工作区聊天窗口中输入一个明确来自上传文档的问题,例如:OAuth2.0授权码模式包含哪几个步骤?
2、发送后查看AI回复是否引用了文档中的具体段落,且回复末尾附带[来源:API设计规范_v2.1.pdf]字样。
3、若回答为泛泛而谈或未标注来源,说明文档未成功嵌入,需检查第三步嵌入模型配置及第四步上传状态。
4、若问题涉及多个文档共有的概念,AI应自动融合上下文作答,而非仅匹配单一文件。










