深度求索(deepseek)最新推出开源 ocr 模型:deepseek-ocr 2,并首次集成全新视觉编码器——deepencoder v2。该编码器摒弃了传统模型固化的“左上→右下”光栅式图像扫描范式,转而借鉴人类视觉认知机制,构建出更具语义感知能力的「因果流(causal flow)」处理逻辑。

项目主页:https://www.php.cn/link/20ea88ff2d4986dc61c779051ca98a10 模型权重:https://www.php.cn/link/84532fb3fd1d8145737e673af93315e8 技术论文:https://www.php.cn/link/20ea88ff2d4986dc61c779051ca98a10/blob/main/DeepSeek\_OCR2\_paper.pdf
据官方介绍,DeepEncoder V2 能够依据图像内容语义动态调整视觉 Token 的排列顺序,而非拘泥于物理空间位置的线性遍历。这一设计更贴近人类在观察复杂场景时“依逻辑线索跳跃式聚焦”的真实视觉行为。
传统多模态大模型(VLMs)普遍采用固定方向的光栅扫描策略解析图像,这种机械式的处理方式与人类灵活、内容驱动的视觉注意机制存在本质差异;尤其在面对表格结构、数学公式、双栏排版等非线性布局时,易导致上下文错位与语义误读。
而 DeepSeek-OCR 2 正是依托 DeepEncoder V2,赋予模型一种新型的「视觉因果流(Visual Causal Flow)」能力——即根据图像内在结构与任务需求,智能重组织视觉 Token 序列。

该架构创新性地引入定制化注意力掩码(Attention Mask)机制:
- 视觉 Token 分支:维持双向注意力,保障模型具备类 CLIP 的全局感受野,充分建模图像整体语义;
- 因果流 Token 分支:启用因果注意力(类似纯 Decoder 架构的 LLM),确保每个 Token 仅能关注其前置序列,从而支撑有序推理与动态重排序。
由此,视觉 Token 保留跨区域信息聚合能力,因果流 Token 则专注构建符合阅读逻辑的结构化表示。模型采用多尺度裁剪策略(Multi-crop strategy),适配不同分辨率输入,最终送入语言模型的重排序视觉 Token 数量介于 256 至 1120 之间。
DeepSeek 团队指出,这一设计为构建统一全模态编码器提供了关键思路:未来有望通过可学习的模态特定查询(modality-specific learnable queries),在同一套参数体系下高效完成图像、音频与文本的联合表征与压缩。DeepSeek-OCR 2 所提出的“双级联一维因果推理器”架构,将二维理解解耦为“阅读逻辑推理”与“视觉任务推理”两个协同子过程,或将成为通向真正二维语义推理的重要技术路径。
延伸阅读
DeepSeek 发布全新开源 OCR 模型 DeepSeek-OCR
受 DeepSeek-OCR 启发的新范式:所有输入 LLM 的信息,本质上都应以图像形式呈现












