褪黑素”: 一项由人工智能引发的音乐风格研究
我们提供了一篇综合调查报告,介绍了包括研究项目和商业应用在内的人工智能音乐生成工具。通过对音乐生成方法进行分类,我们发现参数化、基于文本和基于视觉的三种方法。调查重点展示了这些工具的多样性和功能特点,适用于普通听众和专业音乐人。每个工具都有自己的优点和限制,因此我们编制了一份综合列表,用于在选择过程中考虑这些因素。此外,我们的调查揭示了人工智能音乐生成的底层机制和挑战。
Aug, 2023
通过整合多个 RNN 模型,本研究提出了一个系统,旨在协同人类进行音乐创作,使创作过程更具多样性,通过根据反馈动态调整用户创意意图,系统增强了生成符合用户偏好和创意需求的旋律的能力,通过对具有不同背景的作曲家的实验验证了系统的有效性,进一步完善了音乐创作的可能性,突显了作曲家与人工智能的互动在使音乐创作更加个性化和易于接触方面的重要性,这个系统代表了将人工智能整合到创作过程中的一步,提供了一个新的音乐创作支持和协同艺术探索的工具。
Mar, 2024
我们介绍了一种使用 AI 工具来操纵歌曲情感内容的新方法。我们的目标是在尽可能保持原有旋律的情况下实现所需情感。为此,我们创建了一个交互式流程,能够将输入的歌曲转换为与之截然相反的情感,并通过 Russel 的 Circumplex 模型对结果进行可视化。我们的方法是对现有音乐情感内容进行语义操作的概念验证,这是一个旨在修改现有音乐情感内容的新领域。我们设计了一个深度学习模型,能够评估我们对关键部分、SoundFont 乐器设备以及其他音乐特征的修改准确性。我们的模型准确度与 4Q Emotion 数据集上的最新技术水平相符。通过进一步改进,这项研究可能为按需定制音乐生成、现有作品的自动混音以及情感进展调整的音乐播放列表做出贡献。
Jun, 2024
人工智能技术(如深度学习)正在迅速发展,对我们的日常生活带来了许多变化。为了探索人工智能在音乐和声音技术领域的未来影响和潜力,伦敦玛丽女王大学(英国)和法国音乐和声音科学技术学会举办了一次博士生研讨会。本报告总结了关于数据、影响与环境、负责任的创新和创造性实践、创造力与偏见以及从工具到奇点的学生辩论。这些学生代表着未来一代的人工智能和音乐研究者,而学术界代表着现存的权威。本次学生辩论捕捉到了针对人工智能和音乐未来的愿景、梦想、关切、不确定性和争议问题,以此挑战现存权威的下一代。
Sep, 2023
通过集成多种音乐相关工具和一个自动化工作流,MusicAgent 系统旨在解放用户,使他们能够专注于创造性工作,从而提供无缝且丰富的音乐体验。
Oct, 2023
本研究探讨人工智能技术在音乐制作中的应用现状,通过问卷、半结构化访谈及网络论坛的分析,确认了三种使用者群体分别为业余用户、半职业用户和专业用户,发现业余用户可通过人工智能混音工具简化音乐制作过程并获得不错的效果,而半职业用户和专业用户则更追求精准控制和定制化选项,并且对辅助和协作技术有追求,最后提供了为不同使用者群体设计有效人工智能混音工具的策略和未来发展方向。
Apr, 2023
本文引入了 DeepJ 这一端到端的生成模型,能够在特定的作曲家风格混合条件下进行音乐创作;该模型包括学习音乐风格和音乐动力学等多种创新方法,通过人类评价表明该模型在风格迁移方面优于 Biaxial LSTM 方法。
Jan, 2018