卷积的反向旋律
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
Feb, 2024
提出了一个深度卷积模型,学习了乐谱和音频之间的符号表示之间的得分与音频之间的映射,通过用户研究发现,该模型在自然度和情感表现方面的平均意见分数高于 WaveNet 模型和两个商业声音库。
Nov, 2018
本文提出了三个基于生成对抗网络的符号化多轨音乐生成模型,并通过客观和主观的评估方法证明了这些模型的有效性。此外,该文还介绍了一些评估生成结果的标准,并通过与人类协作音乐生成的实验进行探讨。
Sep, 2017
我们提出了一种新的图卷积块,称为 MusGConv,专门为高效处理音乐乐谱数据而设计,并根据一般感知原理进行了激发。它关注音乐的两个基本维度,音高和节奏,并考虑了这些组成部分的相对和绝对表示。我们在四个不同的音乐理解问题上评估了我们的方法:单声部分离、和声分析、乐句检测和作曲家识别,这在抽象术语中转化为不同的图学习问题,即节点分类、链接预测和图分类。我们的实验证明了 MusGConv 在以上三个任务上改善了性能,同时概念上非常简单和高效。我们解释这一结果是证据表明,在开发音乐乐谱数据的图网络应用时,包括基本音乐概念的感知驱动处理是有益的。
May, 2024
通过近似计算生成新数据分布的深度生成模型,特别是扩散模型,在重构过程中使用大型数据集来训练模型,以图像帧为单位推进时间,同时认识到文化在记录中标记,将扩散系统视为未来计算过程,与过去息息相关,并针对视频制作作为信号处理器生成序列,回溯十年前的算法和多轨制作方法,揭示了当代合成方法在动态图像中的实际预测失败。
Aug, 2023
提出了一种符号音乐生成模型,使用了歌曲结构图分析网络构建了一个图,利用音符序列和乐器等信息作为节点特征,音符序列之间的相关性作为边特征。通过训练图神经网络来获取图中节点的表示,然后将节点表示作为 Unet 的输入生成 CONLON 钢琴滚动图像潜变量。实验结果表明,该模型可以生成全面形式的音乐,为符号音乐生成提供了一种有前景且创新的方法,并在音乐信息检索的各个领域,包括音乐创作、音乐分类和音乐修复系统中具有潜在的应用价值。
Dec, 2023
本文提出了使用卷积变分递归神经网络对音乐进行特征捕捉和创作新音乐序列的模型,通过编码器 - 解码器架构和概率连接捕获音乐的隐藏结构,并使用 Variable Markov Oracle 方法对不同神经网络类型的性能进行比较,结果表明所提出的模型具有更好的统计相似性和更好地保留了原始音乐的风格。
Oct, 2018
我们提出了一种名为 Compositional Sculpting 的方法,用于定义迭代生成过程的组合,通过分类器指导实现了采样,展示了在 GFlowNets 和扩散模型中实现组成塑造的方法,并提供了在图像和分子生成任务上的实证结果。
Sep, 2023
本文提出一种基于卷积神经网络的生成式对抗网络 MidiNet,用于在符号域中生成旋律,其能够通过先前的和弦序列或前几小节的旋律生成新的旋律,相比 MelodyRNN 模型表现更为出色。
Mar, 2017