通过情感学习生成音乐
本文引入了 DeepJ 这一端到端的生成模型,能够在特定的作曲家风格混合条件下进行音乐创作;该模型包括学习音乐风格和音乐动力学等多种创新方法,通过人类评价表明该模型在风格迁移方面优于 Biaxial LSTM 方法。
Jan, 2018
我们介绍了一种使用 AI 工具来操纵歌曲情感内容的新方法。我们的目标是在尽可能保持原有旋律的情况下实现所需情感。为此,我们创建了一个交互式流程,能够将输入的歌曲转换为与之截然相反的情感,并通过 Russel 的 Circumplex 模型对结果进行可视化。我们的方法是对现有音乐情感内容进行语义操作的概念验证,这是一个旨在修改现有音乐情感内容的新领域。我们设计了一个深度学习模型,能够评估我们对关键部分、SoundFont 乐器设备以及其他音乐特征的修改准确性。我们的模型准确度与 4Q Emotion 数据集上的最新技术水平相符。通过进一步改进,这项研究可能为按需定制音乐生成、现有作品的自动混音以及情感进展调整的音乐播放列表做出贡献。
Jun, 2024
近年来,机器学习,特别是生成对抗神经网络(GANs)和基于注意力的神经网络(transformers),已成功用于作曲和生成音乐,包括旋律和多声部作品。然而,现有研究主要集中在风格复制和转换的问题上,并未涉及到人机共同创作和评估。本文综述了音乐表征、特征分析、启发式算法、统计和参数建模,人类和自动化评估措施,并讨论了哪种方法和模型最适合于实时互动。
Feb, 2024
本文提出了一种主观方法,通过向不同水平的用户询问与基本音乐原理相关的问题来评估基于 AI 的音乐作曲系统,以比较深度学习模型的最新发展情况,并给出了对于每个评估模型的每个用户水平的响应的结果。
Mar, 2022
本文介绍和分析运用人工神经网络生成音乐的不同方法,提出五个维度分析框架,包括目标、表示法、体系结构、挑战和策略,通过比较分析不同模型和技术,提出了一种新的多维分类法,并举例说明了目标、表示法、体系结构、挑战和策略的各种选择。
Sep, 2017
本研究概述了当前流行的各种利用深度学习算法进行不同音乐生成层次的生成音乐任务,并总结了适用于各种任务的数据集、音乐表示、评估方法以及挑战,同时指出了几个未来的研究方向。
Nov, 2020
我们提出了将扩散模型与生成对抗网络相结合的方法,旨在解决算法音乐生成中的情感控制和计算成本的问题。通过训练变分自编码器得到情感标签的符号音乐数据集的嵌入,并用其来训练扩散模型,我们成功地控制了扩散模型以生成具有特定情感的符号音乐,同时大幅提升了计算效率。
Oct, 2023