FastSpeech2 是微软提出的一个快速、高质量的端到端文本转语音(TTS)模型,是 FastSpeech 的改进版本,特别适合于实时语音播报、智能客服等场景。
FunASR 是由阿里巴巴达摩院开源的语音识别工具包,包括在大规模工业语料库上训练的模型,提供语音识别、语音活动检测、标点恢复等多种功能。
天工 SkyMusic 是一款基于天工 3.0 模型架构的 AI 音乐生成大模型,能够根据歌词、风格和情感生成高质量的双声道立体声歌曲。
由 OpenAI 推出的多语言语音识别模型,擅长高精度转写和翻译,适合语音转文本、会议记录等场景。
VITS 是一种高表现力语音合成模型,结合了变分推理、标准化流和对抗训练。它是一个完全端到端的TTS模型,使用预先训练好的语音编码器将文本转化为语音,并且是直接从文本到语音波形的转换,无需额外的中间步骤或特征提取。
VALL-E 是微软研究院开发的一种用于文本到语音合成(TTS)的语言建模方法。它通过从现成的神经音频编解码模型中派生出的离散代码来训练神经编解码语言模型,并把TTS视为一种条件性语言建模任务,而不是像以往工作那样作为连续信号回归问题处理。
Audiocraft 是一个使用深度学习进行音频处理和生成的库,集成了最先进的 EnCodec 音频压缩器/分词器,以及 AudioGen 和 MusicGen 两种 AI 生成模型。
FunASR 是由阿里巴巴达摩院开源的语音识别工具包,包括在大规模工业语料库上训练的模型,提供语音识别、语音活动检测、标点恢复等多种功能。