EmoSet:大规模视觉情感数据集与丰富属性
我们引入了 FindingEmo,一个新的图像数据集,包含对 2.5 万张图片的注释,专门用于情绪识别。与现有数据集相反,它专注于描绘多个人物在各种自然、社交环境中的复杂场景,注释是整体进行的,超越了传统对人脸或单个人的关注。注释的维度包括情感价值、情感激动和情绪标签,使用 Prolific 收集注释。除了注释,我们还发布了指向原始图片的 URL 列表,以及所有相关的源代码。
Feb, 2024
本文介绍了一个新的图像数据集,旨在鼓励进一步研究视觉情感分析。 在此数据集上进行了广泛的基准测试分析,包括使用卷积神经网络等最新方法,证实了手工调整特征的有效性以及由于缺乏数据而导致的视觉情感分析发展滞后的挑战。
May, 2016
机器学习在视觉情感识别方面的应用具有很大的潜力,但目前的方法针对有限的视觉情感概念局限于小规模数据集上进行模型训练和测试。我们的分析确定了现有视觉情感基准测试中存在的一个长期被忽视的问题,即数据集偏见。基于我们的分析,我们提出了一个基于 Webly 监督方法的解决方案,通过利用大量的库存图像数据进行训练。我们发现,使用我们的大规模图像数据集学习的模型表现出了明显更好的泛化能力。此外,使用我们的方法学习得到的视觉表示在不同的图像和视频数据集上具有很大的潜力。
Aug, 2018
论文提供了一个大型情感分析数据集 (ArtEmis),用于分析视觉艺术作品与情感体验之间的关联,旨在通过机器学习模型提供情感影响和语言解释之间的详细理解。通过调查人类对于 81,000 幅维基百科艺术作品的情感归属权和解释等信息,对与视觉作品产生情感联系的数据信号进行了精细的建模,进而提出了能够清晰表达视觉刺激的情感并解释其语义和抽象内容的系统。
Jan, 2021
通过引入一个新的大型数据集 VEATIC,作者提出了一个新的计算机视觉任务来推断每个视频帧中选择角色的情感,同时提出了一个简单的模型来评估这个任务,并与其他类似数据集的性能进行比较,实验证明了 VEATIC 的泛化能力。
Sep, 2023
本研究介绍了 ArtEmis 数据集及其第二版,提出使用对比数据采集方法解决数据集中情感偏向问题,并表明在新数据集上训练的编码 - 解码模型性能在所有情感类别上显著提高,并带来 20% 和 7% 的 CIDEr 和 METEOR 评估指标改善,尤其是在情感匮乏的场景下。
Apr, 2022
现今,短视频对于信息获取和分享至关重要。鉴于短视频情感数据的缺乏,我们介绍了一个大规模的数据集,名为 eMotions,包含 27996 个视频。我们通过优化人员分配和多阶段注释来减轻主观因素对标签质量的影响。另外,我们通过有针对性的数据采样提供了类别平衡和面向测试的变体。我们提出了一种端到端的基线方法 AV-CPNet,采用视频 Transformer 来更好地学习语义相关表示。我们进一步设计了两阶段的跨模态融合模块,来补充地建模音视频特征之间的相关性。然后,我们应用了包含三种情感极性的 EP-CE 损失来指导模型优化。对于九个数据集的广泛实验结果验证了 AV-CPNet 的有效性。数据集和代码将在此 https URL 开放。
Nov, 2023
本研究提出一个多元感情图像数据集 EMOTIC,并通过 bounding box 、场景语境等方法训练多种卷积神经网络模型,结果表明场景语境对自动识别情感状态提供了重要信息,为情感识别领域的研究提供了新思路。
Mar, 2020
近年来,情绪原因分析引起了研究人员的关注。为了填补现有数据集在规模和情绪类别数量上的限制,并提供更具抽象性和可推广性的根本原因,我们引入了一个由 1500 万个清理后的推文构成的大规模情绪原因数据集。我们描述了我们的筛选过程,其中包括全面的数据收集、清理、标记和验证流程,以确保数据集的可靠性和丰富性。我们提取情绪标签,并提供导致情绪的事件的抽象化摘要。最终的数据集包括超过 70 万个推文和对应的情绪 - 原因对,涵盖了 48 个情绪类别,并由人工评估员进行了验证。我们数据集的新颖之处在于它涵盖了广泛的情绪类别,并提供了抽象的情绪原因,从而促进了情绪 - 原因知识图谱的细致推理。我们的数据集将使得能够考虑不同人对同一事件的多样化情绪反应的情绪感知系统的设计成为可能。
Jun, 2024
介绍了 GoEmotions,这是目前最大的手动标注的数据集之一,其中包含 58k 英文 Reddit 评论,并将其标记为 27 种情感类别或中性。通过传递学习实验,证明了该数据集具有良好的泛化性能,BERT-based 情感检测模型取得了.46 的平均 F1 分数。
May, 2020