4 个月前

音乐变换器

音乐变换器

摘要

音乐在构建结构和意义时大量依赖重复。自我引用发生在多个时间尺度上,从动机到乐句再到整个音乐段落的重复使用,例如具有ABA结构的作品。基于自注意力机制的Transformer模型(Vaswani等人,2017年)在许多需要保持长距离连贯性的生成任务中取得了令人信服的结果。这表明自注意力机制也可能适合于音乐建模。然而,在音乐创作和表演中,相对时间至关重要。现有的在Transformer中表示相对位置信息的方法通过基于成对距离来调节注意力(Shaw等人,2018年)。对于像音乐作品这样的长序列而言,这种方法由于中间相对信息的记忆复杂度与序列长度呈二次关系而变得不切实际。我们提出了一种算法,将中间记忆需求降低到与序列长度呈线性关系。这使我们能够证明,使用我们改进的相对注意力机制的Transformer可以生成长达数分钟的乐曲(数千步,比Oore等人(2018年)所建模的长度长四倍),并且能够连贯地扩展给定的动机,在序列到序列(seq2seq)设置下根据旋律生成伴奏。我们在两个数据集JSB Chorales和Piano-e-Competition上评估了带有我们相对注意力机制的Transformer,并在后者上获得了最先进的结果。

代码仓库

基准测试

基准方法指标
music-modeling-on-jsb-choralesMusic Transformer
NLL: 0.335

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
音乐变换器 | 论文 | HyperAI超神经