本研究通过使用 Spotify 音乐流媒体平台用户播放列表推导出的情绪和近一百万首歌曲的数据集,利用基于 transformers 的最先进的自然语言处理模型,研究了歌词和情绪之间的关联。研究表明,预训练的 transformer-based 语言模型在零 - shot 场景下能够强大地捕捉到歌曲情绪的关联。 此外,通过比较使用歌词和使用声学特征的模型的预测,我们观察到,相对于声学,歌词对情绪的预测具有不同的重要性,从而验证了模型是否捕捉了人类对歌词和声学的情绪相关性的相同信息。
May, 2022
通过对音乐情感的计算模型进行研究,本文试图预测音乐片段的情感变化以及确保平稳过渡的下一个情感值,以提供在治疗和音乐排队中的应用。
Feb, 2024
本文旨在研究多模态方法是否能在高级歌曲特征和歌词上比单一模态更好地预测歌曲情感得分,结果显示多模态特征在预测愉悦度时比纯音频好,其中 5 种高级歌曲特征对模型性能的贡献最大。
Feb, 2023
本研究考虑了基于音频信号和歌词的多模态音乐情绪预测任务,复现传统特征工程方法的基础上提出了一种基于深度学习的新模型,证明了新方法相较于传统模型更擅长于唤起用户的注意,而在情感预测上两种方法表现相当。此外,我们还比较了不同的融合方法,在同时优化各单模态模型时取得了较大的提升,并向公众发布部分数据以供参考。
Sep, 2018
该论文提出了一种新颖的方法来执行新闻视频的情感分析,基于从内容中提取的音频、文字和视觉线索的融合。该方法旨在为构建媒体宇宙的 ethos(身份)的 semiodiscoursive 研究做出贡献,我们计算了从面部表情中识别出的视觉强度、参与者的声音调制、文本语音和情感得分(极性)。实验结果显示,该方法在情感分类任务中达到了高达 84%的准确度,因此在新闻界中具有极高的应用潜力。
Apr, 2016
本研究使用了基于 Transformer 的 XLNet 模型,首次探索结合歌词进行音乐情感识别。实验表明该方法的性能优于现有基于其他特征的方法。本研究为情感音乐播放列表生成和音乐推荐系统的改进等提供了重要的启示。
Jan, 2021
通过使用分类技术和 XLMRoBERTa 模型,为印度语歌曲的歌词建立了一个手动注释的数据集,并进行了音乐情感识别模型的测试。
Mar, 2023
通过提取音频特征使用数据驱动模型来识别毫无伴奏的歌曲中所表达的情感。
Sep, 2022
本文通过计算方法深入理解歌词,侧重于歌词的风格和偏见,通过分析超过 500,000 首歌曲,研究了歌曲风格和含有的性别和种族偏见,并发现歌词的偏见与社会中存在的偏见有相关性。
Jul, 2019
介绍了一个新的多模态数据集 JustLMD,其中包括舞蹈动作、音乐和歌词的三元信息,并展示了一种基于跨模态扩散的网络,用于根据音乐和歌词生成 3D 舞蹈动作。
Sep, 2023