流行音乐变压器:基于节拍的建模和生成富有表现力的流行钢琴作品
本文展示了使用通用 encoder-decoder Transformer 和标准解码方法可实现与专业领域特定设计模型同等效果的自动音乐转录方法,从而取消了任务特定架构的需求,简化了转录,为集中精力于数据集创建和标注而非模型设计提供了可能性。
Jul, 2021
本文提出了一种基于 Transformer 模型的两阶段框架,首先用 Compose & Embellish 方法创作出一个简单音乐谱,然后加入 Begleitungen 及其他表现手法, 明显缩小了当前技术与真实表演之间的差距,同时提高了乐曲的丰富性和连贯性,也可以对非钢琴数据进行预训练。
Sep, 2022
该论文提出了一种新型 Transformer 解码器架构,其用于不同的前馈头来模拟不同类型的 tokens,以及一种扩展 - 压缩技巧将邻近的 tokens 分组成复合单词的序列,表现出比现有模型更快和同等质量的学习能力.
Jan, 2021
本文提出了一种使用多层双向 Transformer 编码器重建钢琴演奏人类表现力的新方法,并使用现有的转录模型得到的转录乐谱来训练我们的模型,在此基础上通过控制采样过程中的钢琴家身份探索我们系统模拟不同钢琴家表现力差异的能力,在统计生成的表现力强的演奏和听力测试中对该系统进行评估,结果表明我们的方法实现了从转录分数生成类似于人类钢琴演奏的结果的最新技术水平,同时全面且一致地重建了人类的表现力,这进一步提出了挑战。
Jun, 2023
该研究采用深度学习方法,实现基于输入节拍生成单声部旋律的任务,提出了三种有效的方法,并结合差异化、谐和性和结构特点,允许任何人通过输入节拍或现有作品的旋律来创作自己的音乐作品。
Jun, 2023
该研究探讨了如何使用 Transformer 结构生成多乐器音乐乐谱,使用 NES-MDB 数据集进行了实验并采用预训练方法利用 Lakh MIDI 数据集进一步提高生成效果。
Jul, 2019
本文介绍了一种名为 Jazz Transformer 的生成模型,利用名为 Transformer-XL 的神经序列模型来建模爵士乐谱。此外,该模型将 Weimar Jazz 数据库中的结构事件作为诱导生成音乐结构的参考。尽管我们能够将训练损失降低到较低值,但我们的听觉测试显示,生成音乐的平均评分与真实曲目的评分之间存在明显差距。因此,我们会从不同的角度进行一系列计算分析,以进一步证明生成作品与人类艺术作品之间的差距,并为自动创作的未来工作设定一些目标。
Aug, 2020
本篇论文介绍 Transformer 自编码器用于符号音乐生成,提高性能风格和旋律的分开控制能力,并在 MAESTRO 及 Youtube 数据集上实现了比基线更好的结果。
Dec, 2019
该研究使用 BERT 的掩蔽语言建模方法尝试预训练一个 12 层 Transformer 模型,用于处理 4166 个多音乐器 MIDI 文件,以解决一些基于符号领域的音乐理解任务,并发现预训练仍然有效。
Jul, 2021
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
Feb, 2024