qwen3-tts 是由通义实验室研发的全新一代高性能语音合成系统,全面支持音色复刻、个性化音色定制、超拟真自然语音生成,以及基于自然语言指令的精细化语音调控,为开发者与终端用户打造覆盖全场景的语音生成解决方案。
依托自主研发的 Qwen3-TTS-Tokenizer-12Hz 多码本语音编码器,Qwen3-TTS 实现了对原始语音信号的高保真压缩与深层语义建模能力——不仅完整保留语气、停顿、呼吸等副语言特征及录音环境声学细节,还通过轻量级非 DiT 架构达成快速、精准的语音重建。其创新采用 Dual-Track 双轨流式建模机制,实现真正意义上的双向低延迟生成,首帧音频输出仅需等待单个字符输入。
Qwen3-TTS 全系列多码本模型已全部开源,提供 1.7B 与 0.6B 两种参数规模:1.7B 版本聚焦极致性能与精细控制力;0.6B 版本则在推理效率与合成质量之间取得最优平衡。模型原生支持 10 种主流语言(含中文、英语、日语、韩语、德语、法语、俄语、葡萄牙语、西班牙语、意大利语)及多种地域性方言音色,助力全球化语音应用落地。
此外,模型具备卓越的上下文感知能力,可依据文本语义与用户指令动态适配语调、节奏、情绪表达,并显著增强对输入文本中错别字、标点缺失、口语化表达等噪声的鲁棒性。当前模型已在 GitHub 开源,并同步开放 Qwen API 在线体验服务。
欢迎即刻体验
魔搭 ModelScope: https://www.php.cn/link/daa4c479f8ca6bccf503a440032e72c2
Hugging Face: https://www.php.cn/link/eda53de8bf2499072a8865d9b1e909fe
GitHub 仓库: https://www.php.cn/link/f72f05e91d583cf63ae47e955ca9c312
模型规格一览
1.7B 模型

0.6B 模型

Qwen3-TTS 核心优势
核心亮点:
- 高保真语音表征能力:基于自研 Qwen3-TTS-Tokenizer-12Hz 编码器,兼顾高效声学压缩与高维语义建模,完整捕获副语言线索与环境声学特征;配合轻量非 DiT 解码结构,在保障实时性的同时实现高还原度语音重建。
- 端到端统一建模范式:采用离散多码本语言模型架构,直接建模语音全维度信息,彻底摆脱传统“LM + DiT”级联范式的性能瓶颈与误差累积问题,全面提升泛化性、生成速度与上限表现。
- 毫秒级流式响应能力:依托 Dual-Track 混合流式生成框架,单模型无缝兼容流式与非流式合成模式,最快可在首个字符输入后立即输出首段音频,端到端延迟低至 97ms,完美适配实时对话、虚拟助手等强交互场景。
- 语义驱动的智能语音调控:支持以自然语言描述方式灵活操控音色、情感倾向、语速韵律等多维声学属性;深度融合文本理解模块,自动匹配语气起伏、节奏变化与情绪张力,达成高度拟人化的“所思即所闻”语音表达效果。

综合性能评测
我们在音色克隆、音色创造、可控语音生成等多个关键任务上对 Qwen3-TTS 进行了系统性评估,多项指标刷新当前开源与闭源模型纪录:
- 在音色创造任务中,Qwen3-TTS-VoiceDesign 在 InstructTTS-Eval 基准测试中,指令遵循准确率与语音表现力均超越 MiniMax-Voice-Design 闭源方案,并大幅领先其他开源竞品;
- 在音色控制方面,Qwen3-TTS-Instruct 展现出优异的跨语言泛化能力,平均词错率仅为 2.34%;在风格一致性控制能力上获得 InstructTTS-Eval 75.4 分;同时支持超长文本合成,在连续生成 10 分钟语音时,中英文词错率分别稳定于 2.36% 与 2.81%;
- 在音色克隆任务中,Qwen3-TTS-VoiceClone 在 Seed-TTS-Eval 测试集中,中英文语音稳定性全面优于 MiniMax 与 SeedTTS;在 TTS Multilingual Test Set 的 10 类语种评估中,取得平均词错率 1.835% 与说话人相似度 0.789 的双优成绩,超越 MiniMax 和 ElevenLabs;跨语种音色迁移能力亦超越 CosyVoice3,位居当前 SOTA。


Tokenizer 重构性能
我们针对 Qwen-TTS-Tokenizer 在 LibriSpeech test-clean 数据集上开展了语音重建质量评估,多项客观指标达到业界领先水平:
- 在感知语音质量评估(PESQ)中,宽带与窄带得分分别为 3.21 与 3.68,显著优于同类 tokenizer;
- 在短时客观可懂度(STOI)与UTMOS主观质量评分中,分别达 0.96 与 4.16,体现极高的语音清晰度与自然度;
- 在说话人相似度指标上取得 0.95 分,远超对比模型,验证其近乎无损地保留原始说话人身份特征的能力。

源码获取地址:点击下载










