我们介绍了一种使用 AI 工具来操纵歌曲情感内容的新方法。我们的目标是在尽可能保持原有旋律的情况下实现所需情感。为此,我们创建了一个交互式流程,能够将输入的歌曲转换为与之截然相反的情感,并通过 Russel 的 Circumplex 模型对结果进行可视化。我们的方法是对现有音乐情感内容进行语义操作的概念验证,这是一个旨在修改现有音乐情感内容的新领域。我们设计了一个深度学习模型,能够评估我们对关键部分、SoundFont 乐器设备以及其他音乐特征的修改准确性。我们的模型准确度与 4Q Emotion 数据集上的最新技术水平相符。通过进一步改进,这项研究可能为按需定制音乐生成、现有作品的自动混音以及情感进展调整的音乐播放列表做出贡献。
Jun, 2024
本文介绍了一个基于 Deep Learning 的生成模型,可用于自动根据所需情感生成音乐,并且可以用于标记音乐的情感分类,经实验证明,该模型的预测准确率较高。
Mar, 2021
本文综述了基于人工智能的情感音乐生成(AI-AMG)系统,包括其基本构成、核心算法、音乐特征及未来方向等。
Jan, 2023
本篇论文提出了一种新的方法用于生成多乐器符号音乐并能获得更高的情感表达,该方法利用了一个基于变换器的连续情感标签,同时,还提供了一个带有情感标签的大规模符号音乐数据集,并通过音符预测精度和情感平面的回归任务进行了数量化评估,结果表明我们的方法超越了当前技术水平。
Mar, 2022
本文提出了基于 LSTM 递归神经网络的直接演奏音乐生成方法,同时预测音符的表现力、时间和动态变化,取得了良好的主观效果,并得到了专业作曲家和音乐家的反馈。
Aug, 2018
通过对音乐情感的计算模型进行研究,本文试图预测音乐片段的情感变化以及确保平稳过渡的下一个情感值,以提供在治疗和音乐排队中的应用。
Feb, 2024
本文介绍了基于深度学习技术的音乐生成方法,包括早期使用人工神经网络的作品和最近的系统,使用现代深度学习技术和控制手段生成具有不同音乐风格的音乐。
Apr, 2020
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
本研究从机器学习角度分析了 Geneva Emotional Music Scale 9 在 Emotify 音乐数据集中的适用性,探讨了情感通过音乐表达感染的自动识别。
May, 2019
模拟音乐结构在生成符号音乐作品的人工智能系统中至关重要但具有挑战性。本文概述了整合连贯结构的技术的演变,从符号方法到基础和转换的深度学习方法,利用计算和数据在各种训练范式中的强大能力。最新阶段,我们评述了一种新兴技术,称为 “子任务分解”,它涉及将音乐生成分解为独立的高级结构规划和内容创作阶段。这些系统通过提取旋律的骨架或结构模板来引导生成过程,从而纳入某种形式的音乐知识或神经符号方法。从审查的三个时期来看,已经取得了在主题和重复方面的进展,但在模拟人类作曲家风格下的扩展音乐作品中细微主题的发展仍然很困难。我们概述了几个关键的未来方向,以实现结合所有考察时期方法的协同效益。
Mar, 2024