Web Speech API 的 SpeechRecognition 在 iOS Safari 中完全不支持、Android Chrome 部分版本默认禁用,且仅 HTTPS 或 localhost 下可用;需用 window.SpeechRecognition || window.webkitSpeechRecognition 兼容写法,并在用户手势中调用 start(),设置 interimResults 和 lang 才能正常识别。

Web Speech API 的 SpeechRecognition 在大多数现代桌面浏览器中可用,但**在 iOS Safari 和 Android Chrome(部分版本)上默认禁用或完全不支持**——这不是代码写错的问题,而是权限与平台限制导致的“调用即失败”。
SpeechRecognition 构造函数报错:ReferenceError: SpeechRecognition is not defined
这是最常见拦路虎。Chrome 仅在 HTTPS 或 localhost 下启用该 API;Safari(所有 iOS/iPadOS 版本)至今未实现 SpeechRecognition;Edge 基于 Chromium 后已支持,但需确认版本 ≥ 79。
- 检查运行环境:
typeof SpeechRecognition !== 'undefined'必须为true,否则直接降级(如改用按钮输入) - 不要依赖
window.SpeechRecognition—— 应使用带前缀的兼容写法:window.SpeechRecognition || window.webkitSpeechRecognition - 若部署在 HTTP 非本地环境,必须切到 HTTPS,否则
new SpeechRecognition()会静默失败或抛出TypeError
start() 调用后无响应,onresult 从不触发
不是代码漏了事件监听,而是麦克风权限未获取、用户拒绝、或识别服务未就绪。Web Speech API 不会自动弹出权限框,start() 调用本身才会触发。
- 确保在用户手势(如
click或touchend)回调中调用recognition.start(),否则 Chrome 会静默拒绝 - 监听
onaudioend和onend:如果快速触发start()→stop(),可能因音频流未释放导致后续调用失效 -
recognition.interimResults = true必须显式设置,否则只返回最终结果(event.results[0][0].transcript),中间语音不会上报
识别准确率低、中文支持差、响应延迟高
Web Speech API 调用的是设备所在区域的 Google 语音识别后端,语言模型和网络质量直接影响效果。它不提供模型切换或自定义词典能力。
立即学习“Java免费学习笔记(深入)”;
-
recognition.lang = 'zh-CN'必须设对,且浏览器语言设置最好也匹配,否则可能 fallback 到英文模型 - 避免长句连续识别:单次
start()最好控制在 30 秒内,超时后onend触发,需手动重start() - 没有离线模式:所有音频上传至远程服务,国内用户可能因网络抖动出现明显延迟或中断,无法用于实时字幕类强时效场景
替代方案:什么情况下不该硬扛 Web Speech API
当你的场景要求 iOS 兼容、离线运行、低延迟反馈、或需要自定义热词(如医疗术语、产品型号),Web Speech API 就不是解法,而是障碍。
- iOS 用户占比高?立刻放弃,改用点击输入 + 拼音模糊搜索,或接入第三方 SDK(如讯飞 Web SDK,需申请 key 且有调用配额)
- 需要识别固定指令(如“打开灯光”“播放第三首”)?用
match+ 关键词白名单比依赖语音识别更稳 - 要支持断句、标点、说话人分离?Web Speech API 不提供这些字段,
event.results[i][j].confidence也不可靠,别浪费时间解析
真正棘手的不是怎么写那几行 new SpeechRecognition(),而是如何在用户点下按钮的 200ms 内,判断该走语音路径、键盘路径,还是直接提示“暂不支持”。兼容性检测、降级策略、用户提示文案,这些才占掉 80% 的实际工作量。











