DiffRhythm,基于扩散模型的端到端音乐模型,可以在 10 秒内生成一首完整包含人声和伴奏的歌曲。
InspireMusic,阿里开源的音乐生成模型,可控制文本提示,音乐流派,音乐结构等。
YuE,香港大学开源的音乐基础模型,基于LLaMA架构,可以生成5分钟长度的歌曲。
MelodyFlow,Meta发布的AI音乐生成模型,可以根据提示词生成音乐,也可以在线编辑音乐。
QA-MDT,开源文本音乐生成,基于扩散模型的文字生成音乐模型。
Seed-Music,豆包的统一AI音乐生成框架,比Suno更全面更高级。
FluxMusic,基于Transformer的文字生成音乐。
MusiConGen,基于Transformer的文本生成音乐模型,通过文字控制和弦和节奏(BPM)。
EzAudio,开源的AI音频生成模型,基于Diffusion Transformer 增强文本到音频的生成。
平台限制不能发布链接,请移步沃图社查看。