探索音乐的情绪轨迹:基于 Spotify 音乐数据的愉悦度趋势和音乐流派变化分析
本文旨在研究多模态方法是否能在高级歌曲特征和歌词上比单一模态更好地预测歌曲情感得分,结果显示多模态特征在预测愉悦度时比纯音频好,其中 5 种高级歌曲特征对模型性能的贡献最大。
Feb, 2023
本研究考虑了基于音频信号和歌词的多模态音乐情绪预测任务,复现传统特征工程方法的基础上提出了一种基于深度学习的新模型,证明了新方法相较于传统模型更擅长于唤起用户的注意,而在情感预测上两种方法表现相当。此外,我们还比较了不同的融合方法,在同时优化各单模态模型时取得了较大的提升,并向公众发布部分数据以供参考。
Sep, 2018
深度学习模型在音乐方面取得了巨大的进展,但现如今机器学习模型在准确捕捉情感方面有多好以及研究人员面临哪些挑战呢?本文提供了可用的音乐情感数据集的综合概述,讨论了评估标准以及该领域中的竞赛,并简要概述了多种音乐情感预测模型,为该领域内的多样化方法提供了见解。通过这个研究,我们强调了在准确捕捉音乐情感方面存在的挑战。鉴于该领域的动态性,我们还未我们的发现补充了一个相应的 GitHub 仓库。该仓库包含了音乐情感数据集和最近的预测模型的全面列表。
Jun, 2024
我们介绍了一种使用 AI 工具来操纵歌曲情感内容的新方法。我们的目标是在尽可能保持原有旋律的情况下实现所需情感。为此,我们创建了一个交互式流程,能够将输入的歌曲转换为与之截然相反的情感,并通过 Russel 的 Circumplex 模型对结果进行可视化。我们的方法是对现有音乐情感内容进行语义操作的概念验证,这是一个旨在修改现有音乐情感内容的新领域。我们设计了一个深度学习模型,能够评估我们对关键部分、SoundFont 乐器设备以及其他音乐特征的修改准确性。我们的模型准确度与 4Q Emotion 数据集上的最新技术水平相符。通过进一步改进,这项研究可能为按需定制音乐生成、现有作品的自动混音以及情感进展调整的音乐播放列表做出贡献。
Jun, 2024
本文研究深度音频嵌入技术对于音乐情感识别领域的应用,探讨了 L3-Net 和 VGGish 等深度音频嵌入方法在情感识别上的表现,结果表明这些方法可有效提高基线情感识别模型的性能,且不需要人工专家工程。
Apr, 2021
本研究通过使用 Spotify 音乐流媒体平台用户播放列表推导出的情绪和近一百万首歌曲的数据集,利用基于 transformers 的最先进的自然语言处理模型,研究了歌词和情绪之间的关联。研究表明,预训练的 transformer-based 语言模型在零 - shot 场景下能够强大地捕捉到歌曲情绪的关联。 此外,通过比较使用歌词和使用声学特征的模型的预测,我们观察到,相对于声学,歌词对情绪的预测具有不同的重要性,从而验证了模型是否捕捉了人类对歌词和声学的情绪相关性的相同信息。
May, 2022
音乐中情感或心情可以在不同层面上表达自己。我们评估了基于歌词和音频的情感分析模型,并提出了结合音频和歌词结果的不同方法。我们还研究了音频和歌词情感之间的错误分类和矛盾,并确定了可能的原因。最后,我们解决了这个研究领域的一些基本问题,如主观性高,数据缺乏以及情感分类的不一致性。
May, 2024
使用 FER-2013 和 “年龄、性别和种族(面部数据)CSV” 数据集,基于情感、年龄和种族开发了一种音乐推荐系统,并使用 CNN 架构对模型进行了训练,训练了 3 个不同的模型,用于为用户推荐具有功能性和用户友好的音乐播放列表。
Dec, 2022