AgostinelliAndrea ; DenkTimo I. ; BorsosZalán ; EngelJesse ; VerzettiMauro ; CaillonAntoine ; HuangQingqing ; JansenAren ; RobertsAdam ; TagliasacchiMarco ; SharifiMatt ; ZeghidourNeil ; FrankChristian

摘要
我们介绍了MusicLM,这是一种能够从文本描述(如“由失真吉他 riff 伴奏的宁静小提琴旋律”)生成高保真音乐的模型。MusicLM 将条件音乐生成过程视为分层序列到序列建模任务,并以 24 kHz 的采样率生成音乐,且在数分钟内保持一致。我们的实验表明,MusicLM 在音频质量和对文本描述的忠实度方面均优于先前的系统。此外,我们还展示了 MusicLM 可以同时基于文本和旋律进行条件生成,即将口哨声和哼唱的旋律转换为文本标题中描述的风格。为了支持未来的研究,我们公开发布了 MusicCaps 数据集,该数据集包含 5.5 万个音乐-文本对,其中丰富的文本描述由人类专家提供。
代码仓库
lucidrains/musiclm-pytorch
pytorch
facebookresearch/audiocraft
pytorch
GitHub 中提及
zhvng/open-musiclm
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| text-to-music-generation-on-musiccaps | Mubert | FAD: 9.6 |
| text-to-music-generation-on-musiccaps | MusicLM | FAD: 4.0 |
| text-to-music-generation-on-musiccaps | Riffusion | FAD: 13.4 |