HTML5原生不支持RTSP协议,video标签无法解析rtsp://地址,因RTSP是控制协议且依赖UDP传输,而HTML5仅支持HTTP/HTTPS等协议及MP4/WebM等格式;必须通过服务端转流实现,如RTSP→HTTP-FLV(flv.js)、RTSP→WebRTC或RTSP→HLS(hls.js),并注意编码参数、超时设置、HTTPS分发及时间戳同步等关键细节。

HTML5 原生不支持 RTSP
浏览器的 标签根本不认识 rtsp:// 协议,直接写 src="rtsp://192.168.1.100:554/stream" 会静默失败,控制台通常只报 MediaError.MEDIA_ERR_SRC_NOT_SUPPORTED 或直接黑屏无提示。
根本原因在于:RTSP 是一个控制协议(常搭配 RTP/UDP 传输视频帧),而 HTML5 只接受解码器能直接处理的容器格式(如 MP4、WebM)和传输协议(HTTP、HTTPS、blob、data URL),不内置 RTSP 客户端栈,也不支持 UDP 流解析。
可行替代方案只有转流(不是“兼容”)
所谓“HTML5 播放 RTSP”,实际是服务端把 RTSP 流拉取、解复用、转封装/转码,再以浏览器能认的格式推出来。常见路径有:
- RTSP → HTTP-FLV(用
nginx-http-flv-module+ffmpeg拉流转推)→ 前端用flv.js - RTSP → WebRTC(用
Janus/Mediasoup/LiveKit等 SFU/MCU)→ 前端用原生RTCPeerConnection - RTSP → HLS(
ffmpeg -i rtsp://... -c copy -f hls ...)→ 前端用加hls.js(注意 iOS Safari 对 HLS 的 native 支持仅限 HTTP Live Streaming v7+,且要求 TS 分片 + AAC/H.264)
没有“RTSP 兼容表”——只有你选的转流方案是否支持某路摄像头的编码参数(比如 H.265 的 RTSP 流,HLS 转发时若没加 -c:v libx264 强制转 H.264,iOS 就播不了)。
立即学习“前端免费学习笔记(深入)”;
别踩这些坑
容易被忽略但高频出问题的点:
-
ffmpeg拉 RTSP 流时默认超时短(30 秒),遇到网络抖动或设备响应慢会断连,需加-stimeout 5000000(单位微秒)和-rtsp_transport tcp(避免 UDP 丢包导致花屏) - HLS 转发生成的
.m3u8必须通过 HTTPS 提供(现代浏览器禁止混合内容,HTTP 的src 在 HTTPS 页面中会被拦截) - WebRTC 方案里,如果摄像头只支持 UDP-RTSP,而你的信令服务器或 ICE 配置没开 UDP 打洞或 STUN/TURN 不通,就会卡在
connecting状态,看不出错在哪 -
flv.js不支持音视频不同步严重(>500ms)的流,需在 ffmpeg 转推时加-vsync cfr和-copyts控制时间戳
真正要查的不是“兼容表”,是链路各环节的编码约束
比如:rtsp:// 源是否含 B-frame?H.264 的 level 是 4.2 还是 5.1?音频是 G.711 还是 OPUS?这些决定了你转成 HLS 后能否被 Safari 解码,或 WebRTC 是否需要服务端音频重采样。浏览器不会告诉你“不支持 RTSP”,它只会说“无法加载媒体资源”。真问题永远藏在中间那层转流逻辑里,而不是 标签本身。










