提出了一种符号音乐生成模型,使用了歌曲结构图分析网络构建了一个图,利用音符序列和乐器等信息作为节点特征,音符序列之间的相关性作为边特征。通过训练图神经网络来获取图中节点的表示,然后将节点表示作为 Unet 的输入生成 CONLON 钢琴滚动图像潜变量。实验结果表明,该模型可以生成全面形式的音乐,为符号音乐生成提供了一种有前景且创新的方法,并在音乐信息检索的各个领域,包括音乐创作、音乐分类和音乐修复系统中具有潜在的应用价值。
Dec, 2023
本文提出了三个基于生成对抗网络的符号化多轨音乐生成模型,并通过客观和主观的评估方法证明了这些模型的有效性。此外,该文还介绍了一些评估生成结果的标准,并通过与人类协作音乐生成的实验进行探讨。
Sep, 2017
本文提出了一种数据驱动的框架,以将音乐序列 解析为依赖树,该系统不依赖于任何特定的符号语法,可以同时考虑多种音乐特征,并利用序列上下文信息,可以轻松集成到现代深度学习管道中。在两个音乐数据集上测试表明,该方法优于先前的方法。
Jun, 2023
本文提出了一种基于 VAE 的音乐分离模型,用于将和弦和纹理这两个可解释的因子分离出来,从而实现音乐生成过程的可控,在生成音乐时具有广泛的应用,包括作曲风格转换、纹理变化和伴奏编排,并通过客观和主观评价证明了该方法的成功分离和高质量的音乐生成。
Aug, 2020
本文介绍了 MusicFrameworks,这是一种基于深度学习的分层音乐结构表示方法;并提出了一种多步骤的生成过程,根据长期重复结构、和弦、旋律轮廓和节奏约束生成完整的旋律。研究结果表明,其中一半的旋律比起 POP909 数据集中由人类作曲家创作的音乐更好或同样好。
Sep, 2021
本文介绍了一种基于图神经网络的强大新方法,用于学习生成模型的过程中捕获图的结构和属性。实验证明,相较于不使用图结构表示的基线,我们的模型常常表现更好,是学习任意图的生成模型的第一个最通用的方法,为从矢量和序列式知识表示的限制中走向更具表现力和灵活性的关系型数据结构开辟了新方向。
Mar, 2018
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
Feb, 2024
本研究尝试使用深度神经网络建立生成模型,以生成既有和声和旋律,并且足以通过人类作曲的音乐,并利用端到端学习和生成的方法。
Jun, 2016
本文介绍和分析运用人工神经网络生成音乐的不同方法,提出五个维度分析框架,包括目标、表示法、体系结构、挑战和策略,通过比较分析不同模型和技术,提出了一种新的多维分类法,并举例说明了目标、表示法、体系结构、挑战和策略的各种选择。
本文提出了一种名为 PianoTree VAE 的新型树结构扩展 VAE 用于拟合多声部音乐学习,并通过实验验证了其(一)适用于多声部片段的语义有意义的潜在编码;(二)除了可接受的几何形状学习外,更具有令人满意的重构性能;(三)对下游音乐生成的多样性有益。