据IT之家,小米AI实验室新一代Kaldi团队推出OmniVoice语音克隆TTS模型。官方表示,这是业内首个覆盖数百语种的语音克隆TTS模型,在中英文场景达到顶尖性能,在多语言任务中展现出超越商用系统的实力。
该模型仅用一个双向Transformer网络就直接实现文本到语音转化,省去了文本单独建模、复杂混合结构及多层级token预测等环节,是目前最简单的非自回归TTS模型。其语音合成质量优于目前同类主流模型,训练和推理速度极具优势,一天可完成10万小时训练,用PyTorch推理可达到40倍实时。
OmniVoice有两项关键设计:一是通过全码本随机掩蔽策略提升训练效率;二是首次在非自回归TTS模型中有效利用大语言模型作为预训练参数,大幅提升语音合成的可懂度。
在多语言测试中,即便仅基于开源数据训练,该模型在24语种测试中的语音相似度和可懂度均超越多款商用系统;在102种语种测试中,其语音可懂度逼近甚至优于真实语音;对于训练数据不足10小时的小语种,也能实现高质量语音合成。
该模型还具备多项实用功能:无需参考音频,仅通过描述音色属性即可生成符合预期的音色;能自动过滤参考音频中的噪声,即便在嘈杂环境下录制的音频也能克隆出高质量语音;支持插入笑声、叹气等语气符号;用户可通过简单设置纠正中英文多音字及专有名词的发音错误。