4 个月前

Noise2Music:基于文本条件的音乐生成扩散模型

Noise2Music:基于文本条件的音乐生成扩散模型

摘要

我们介绍了Noise2Music,这是一种通过训练一系列扩散模型从文本提示生成高质量30秒音乐片段的技术。该技术采用了两种类型的扩散模型:一种是生成器模型,它根据文本生成中间表示;另一种是级联模型,它在中间表示(以及可能的文本)的条件下生成高保真音频。这两种模型依次训练并使用,以生成高保真音乐。我们探索了两种中间表示的选项:一种使用频谱图,另一种使用低保真音频。研究发现,生成的音频不仅能够忠实地反映文本提示中的关键元素,如流派、节奏、乐器、情绪和时代背景,还能进一步捕捉提示的细粒度语义。预训练的大规模语言模型在这项工作中发挥了关键作用——它们用于为训练集中的音频生成配对文本,并提取扩散模型所摄入的文本提示的嵌入向量。生成示例:https://google-research.github.io/noise2music

基准测试

基准方法指标
text-to-music-generation-on-musiccapsNoise2Music waveform
FAD: 2.134
text-to-music-generation-on-musiccapsNoise2Music spectrogram
FAD: 3.840

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Noise2Music:基于文本条件的音乐生成扩散模型 | 论文 | HyperAI超神经