使用分层循环神经网络生成流行音乐,并在人类实验研究中表现出与谷歌最近的生成方法相比的效果优势,同时展示了基于该框架的神经舞蹈和卡拉OK,以及神经故事唱法两种应用。
Nov, 2016
该研究探索了利用单位选择和连接作为生成音乐的手段,结合深度结构语义模型和 LSTM 预测下一个单位的生成模型,使用客观指标和专业音乐人听辨测试进行评估。
Dec, 2016
本文提出了三个基于生成对抗网络的符号化多轨音乐生成模型,并通过客观和主观的评估方法证明了这些模型的有效性。此外,该文还介绍了一些评估生成结果的标准,并通过与人类协作音乐生成的实验进行探讨。
Sep, 2017
本文提出将乐谱数据表示成具有韵律结构的形式,通过开发更好的数据输入方式,我们建立了一个节奏更流畅的 Pop 钢琴音乐生成模型 - Pop Music Transformer。
Feb, 2020
本文提出了一种新的多音轨MIDI表示(MuMIDI),并引入了额外的长期上下文作为记忆以捕捉音乐中的长期依赖性,通过在多个数据集上进行主观和客观指标的比较,证明了其在流行音乐伴奏生成和长期上下文建模方面的有效性。
Aug, 2020
该论文提出了一种新型Transformer解码器架构,其用于不同的前馈头来模拟不同类型的tokens,以及一种扩展-压缩技巧将邻近的tokens分组成复合单词的序列,表现出比现有模型更快和同等质量的学习能力.
Jan, 2021
本文介绍了MusicFrameworks,这是一种基于深度学习的分层音乐结构表示方法;并提出了一种多步骤的生成过程,根据长期重复结构、和弦、旋律轮廓和节奏约束生成完整的旋律。研究结果表明,其中一半的旋律比起POP909数据集中由人类作曲家创作的音乐更好或同样好。
Sep, 2021
本文提出了一种基于神经网络的方法,用于生成钢琴音乐的Midi文件。该方法使用两个网络分别生成左右手的音符,其中左手取决于右手。Midi文件以一种对音乐音阶不变的方式呈现,旨在通过将每个小节视为和弦的内容来表示旋律,从而调节和弦。最后,根据这个和弦表示,随机添加音符,以丰富生成的音频。实验表明,该方法在训练过程中比现有技术取得了显著的改进,并展示了每个新颖组件的贡献。
Nov, 2021
提出了一种新颖的Transformer模型Museformer,它采用了细粒度和粗粒度的注意力机制来生成音乐,能够通过细粒度注意力机制捕捉音乐结构相关的关联,通过粗粒度注意力机制捕捉其他上下文信息,并且可以比完全注意力机制生成长度超过3倍的高质量音乐序列。
Oct, 2022
本研究解决了现有歌曲生成方法在音乐表现控制方面的不足,通过引入和弦这一重要音乐组成概念,增强了歌曲生成网络的效果。提出的和弦条件歌曲生成器(CSG)结合了动态权重序列的跨注意力机制,使生成的歌曲在音乐表现和控制精度上显著优于其他方法。
Sep, 2024