Engram是什么
engram 是由 deepseek 团队携手北京大学共同研发的一种条件记忆机制,专为增强大语言模型(llm)的知识利用能力而设计。该模块通过构建现代化的 -gram 嵌入表,将静态知识以结构化方式存入独立内存空间,并结合稀疏检索与上下文感知门控策略,实现低开销、高精度的知识调用。engram 与混合专家(moe)架构天然协同,可在不增加推理计算量的前提下,显著强化模型在知识密集型任务、超长上下文建模及复杂推理场景中的表现,同时规避 gpu 显存瓶颈,支撑更大规模参数部署。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Engram的主要功能
- 高效知识检索:依托预构建的静态嵌入表,实现毫秒级固定知识定位,大幅降低对主干网络计算资源的占用。
- 长上下文优化:释放注意力层的建模压力,使其更聚焦于全局语义关联,从而提升模型对万字以上文本的理解与推理能力。
- 计算与存储解耦:支持从主机内存异步加载记忆数据,绕过 GPU 显存容量约束,为千亿级参数扩展提供新路径。
- 多维性能跃升:在零额外 FLOPs 消耗下,显著改善知识问答、通用逻辑推理、编程生成及数学求解等关键任务的准确率与稳定性。
Engram的技术原理
- 分词器轻量化:采用预训练的满射映射函数,将原始 Token ID 归一化为紧凑 ID 空间,压缩词表冗余,提升 -gram 覆盖密度与泛化效率。
- 多头哈希索引:融合哈希定位与多头并行机制,将局部上下文片段快速映射至嵌入表对应槽位,有效规避传统 -gram 参数化带来的组合爆炸问题。
- 动态门控融合:以当前隐状态为 Query,以检索所得嵌入为 Key/Value,引入可学习门控单元抑制无关噪声,保障注入知识与上下文语义严格对齐。
- 稀疏参数再分配:在既定参数总量约束下,将 MoE 部分专家容量迁移至 Engram 内存模块,实证发现计算资源与记忆容量存在 U 型权衡关系,并据此确定最优配比。
- 系统级延迟隐藏:利用 Engram 检索过程的高度确定性,设计预取流水线与计算-传输重叠机制,有效掩盖内存访问延迟,突破显存带宽限制。
Engram的项目地址
Engram的应用场景
- 智能问答系统:可即时对接外部知识库,精准召回事实性信息,显著缩短响应延迟并提高答案可信度。
- 可控文本生成:在生成过程中快速匹配高频短语、领域术语或模板化表达,提升输出一致性与专业性。
- 长文档分析:适用于法律合同、科研论文、技术白皮书等超长文本场景,增强跨段落逻辑追踪与主旨归纳能力。
- 智能编程助手:高效检索常见代码模式、API 使用范式及错误修复方案,加速代码补全、重构与调试流程。
- 数学问题求解:支持对公式、定理、推导步骤等结构化数学知识的快速定位与复用,提升符号推理与证明生成质量。











