基于节拍对齐的谱图到序列生成的节奏游戏谱面
这篇论文探讨了使用深度神经网络自动生成任意音乐的游戏阶段 - 即图表 - 的方法,并且通过多层前馈神经网络和规则确定玩家的控制方式,成功提高了预测音乐节奏和创作图表的准确度。
Jun, 2018
DeepRapper 是一种基于 Transformer 的说唱生成系统,可以模拟说唱的韵律和节奏,通过逆向生成具备韵律表现形式的歌词,并在其中插入特殊符号以表现节奏,在宏观和微观层面上评估显示 DeepRapper 生成的歌曲质量高且具有创造性。
Jul, 2021
本文展示了使用通用 encoder-decoder Transformer 和标准解码方法可实现与专业领域特定设计模型同等效果的自动音乐转录方法,从而取消了任务特定架构的需求,简化了转录,为集中精力于数据集创建和标注而非模型设计提供了可能性。
Jul, 2021
本文提出将乐谱数据表示成具有韵律结构的形式,通过开发更好的数据输入方式,我们建立了一个节奏更流畅的 Pop 钢琴音乐生成模型 - Pop Music Transformer。
Feb, 2020
本文提出了一种基于主题的条件控制机制,通过深度学习的对比学习和聚类技术自动提取音乐片段中的主题材料,并在序列到序列编码器 / 解码器结构中使用了一种新的门控并行注意力模块来更有效地考虑给定的感应主题材料,以生成具有重复和合理变化的多声部流行钢琴音乐。
Nov, 2021
该论文提出了一个基于深度生成模型的节奏动作游戏生成方法 Gen'eLive!,其应用可以减少业务操作成本,该模型通过考虑节拍和时间尺度提高了音乐结构的生成效果,并成功地应用于日本 KLab 公司《Love Live!》等游戏的制作中。
Feb, 2022
本文提出了一种以音乐驱动的舞蹈合成框架,能够在保证特定舞蹈风格总体结构一致的同时,生成长期与节拍同步的多样运动,包括连贯的姿势,按特定分布的相连动作和整个舞蹈的运动顺序。该框架是一个分层系统,包括位姿、动作图案和编舞级别。其中,LSTM 组件生成时间上连续的姿势序列,动作图案级别利用新颖的动态感知丢失来引导一组连续的姿势形成属于特定分布的运动,编舞级别驱动系统遵循舞蹈总体结构,选择表演动作的顺序。实验表明,该以音乐驱动的框架能够在各种舞蹈类型上生成自然、一致的运动,并能控制合成运动的内容。
Nov, 2021
通过深度学习技术生成古典印度音乐的方法被提出,其中以 tabla 音乐为例,利用 Bi-LSTM 和 Attention 方法以及 transformer 模型进行训练,获得了相应结果。
Apr, 2024
该研究采用深度学习方法,实现基于输入节拍生成单声部旋律的任务,提出了三种有效的方法,并结合差异化、谐和性和结构特点,允许任何人通过输入节拍或现有作品的旋律来创作自己的音乐作品。
Jun, 2023