Step 3.5 Flash是什么
step 3.5 flash 是阶跃星辰最新发布的开源基础大模型,专为 agent 场景深度优化。该模型采用稀疏混合专家(moe)架构,总参数量达 1960 亿,但每 token 仅激活约 110 亿参数,在保持强大性能的同时显著提升推理效率。其推理吞吐高达 350 tps,原生支持 256k 超长上下文,在数学推演、代码生成(swe-bench verified 74.4%)及复杂 agent 任务上表现媲美主流闭源旗舰模型。step 3.5 flash 已全面开源,并兼容 vllm、sglang、llama.cpp 等主流推理框架,可在 mac studio m4 max、nvidia dgx spark 等消费级硬件上本地运行,兼顾数据安全与计算效能。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Step 3.5 Flash的核心能力
- 极致推理速度:依托 MTP-3 多 Token 预测技术,实现最高 350 TPS 的文本生成速率,保障多步复杂推理的毫秒级响应。
- 强 Agent 原生性:面向智能体任务定制训练,在 SWE-bench Verified 基准中达成 74.4% 准确率,可稳定执行跨步骤、跨工具、长依赖的任务链。
- 超长上下文处理:支持 256K tokens 上下文窗口,融合滑动窗口与全局注意力的混合机制,大幅压缩长文本推理的计算开销。
- 轻量化本地部署:针对终端设备深度适配,Mac Studio M4 Max、NVIDIA DGX Spark 等平台均可流畅加载并高效运行。
- 专业级代码理解与生成:具备高精度编程能力,支持自动工具调用、结构化输出与上下文感知的代码补全与重构。
Step 3.5 Flash的技术亮点
- 细粒度稀疏 MoE 架构:基于 45 层 Transformer 主干,每层集成 288 个可路由专家 + 1 个共享专家;推理时动态激活 Top-8 专家,单 token 实际参与计算的参数约 110 亿,以小成本释放 1960 亿参数模型的全部潜力。
- MTP-3 多 Token 并行预测:引入专用预测头,结合滑动窗口注意力与密集前馈网络,单次前向即可同步产出 4 个 token,典型场景下生成速度达 100–300 tok/s,峰值突破 350 tok/s,显著缩短端到端延迟。
- 3:1 混合注意力设计:交替堆叠滑动窗口注意力层(聚焦局部语义)与全局注意力层(建模远距离关联),在 256K 长文本场景下实现计算复杂度可控与建模能力不妥协的双重目标。
- 全栈推理加速方案:支持专家并行(EP8)与张量并行(TP8)协同部署,叠加 FP8 低精度量化策略降低显存带宽压力;进一步融合投机解码与 MTP-3 技术,在 Hopper 架构 GPU 上达成高吞吐、低延迟的服务化落地。
Step 3.5 Flash的官方资源
- GitHub 项目主页:https://www.php.cn/link/7db18f538959df68c644ed49564833a3
- Hugging Face 模型页:https://www.php.cn/link/063eb8aa17714d0c60ef8b2d1e03cdf7
Step 3.5 Flash的典型应用
- AI 编程助手底座:作为 Claude Code、Codex 类产品的核心引擎,提供代码生成、缺陷定位、单元测试生成、工程级重构等能力,在 SWE-bench Verified 测试中通过率达 74.4%。
- 自主决策智能体:适用于科研辅助分析、动态网页抓取与解析、多源异构数据交叉验证等需多跳推理与工具协同的 Agent 场景。
- 低延迟人机交互系统:凭借 100–350 TPS 的实时生成能力,支撑高并发聊天机器人、个性化学习辅导、多轮智能客服等对响应速度敏感的应用。
- 大规模文档智能解析:胜任学术论文精读、法律合同条款比对、百万行级代码库语义理解等任务,快速提取关键信息并完成结构化整合。
- 隐私优先的端侧 AI 计算:支持在 Mac Studio M4 Max、NVIDIA DGX Spark 等本地设备一键部署,满足金融风控、临床辅助、企业内网办公等高敏场景的数据不出域需求。










