SemEval-2013 任务 2:Twitter 中的情感分析
该论文描述了 SemEval-2014 中的 Twitter 情感分析任务,介绍了新的测试集并报道了最高 F1 分数达到 86.63(子任务 A)和 70.96(子任务 B)的结果。
Dec, 2019
本文介绍了 2015 年 SemEval 共享任务,即推特情感分析。该任务为历年来最受欢迎的情感分析任务,共有超过 40 支团队参与。今年的任务共有五个情感预测子任务,其中两个为往年任务的重现,另外三个则为全新任务,旨在预测单个推特中对主题的情感、一组推特中对主题的总体情感以及短语先前极性的程度。
Dec, 2019
该论文描述了 Twitter 情感分析任务的第五个年头,继续重新运行了 SemEval-2016 任务 4 的子任务,其中包括对推文整体情感、针对话题的情感以及情感分布的量化等。相较于 2016 年,我们还引入了一种新的语言,即阿拉伯语,并提供了发布目标推文的 Twitter 用户档案信息。今年共有 48 个团队参加了这项任务。
Dec, 2019
本文简要介绍了作者和团队参加 SemEval2016 挑战赛的情况,讨论了在 Twitter 情感分析任务中的方法和步骤,其中使用了两阶段方法,最终使用集成学习方法来得出排名靠前的结果。
Jun, 2016
使用 BERT 模型对 SemEval2017 中 Twitter 上的英语情感分析任务 4A 进行解决,在训练数据量较小的分类任务中,BERT 是一个非常强大的大型语言模型。使用此模型进行实验时,我们使用了包含 12 个隐藏层的 BERT BASE 模型,该模型在准确性、精确率、召回率和 F1 分数上优于朴素贝叶斯基线模型,在二分类子任务中表现更好,我们还在实验过程中考虑了所有种类的伦理问题,因为 Twitter 数据包含个人和敏感信息。我们在此 GitHub 存储库中提供了实验中使用的数据集和代码。
Jan, 2024
本文介绍了在 SemEval-2018 挑战赛中参赛的深度学习模型及其应用。采用 Bi-LSTM 网络结构和多层自注意力机制,利用大量 Twitter 数据的 word2vec 词向量嵌入和情感特征,通过预先训练 Semeval 2017 年的数据集进行迁移学习,最终在多个子任务中取得了显著的结果。
Apr, 2018
介绍了 BLP 情感共享任务的概述,该任务是在 2023 BLP 研讨会上举办的,与 EMNLP 2023 同时举行。该任务的定义是在给定的社交媒体文本中检测情感。
Oct, 2023
本文介绍如何使用基于 SVM 算法的两种分类器来检测消息(如推文和短信)的情感和词汇层面上的情感,并详细描述了使用各种表层形式、语义和情感特征进行实现。其中,基于词典的特征在所有特征中获得了 5 个 F-score 点的增益,两个系统都可以使用现有资源进行复制。
Aug, 2013
通过 SemEval-2023 任务 12,使用 Twitter 数据组进行低资源非洲语言情感分析。使用预训练的 Afro-xlmr-large、AfriBERTa-Large、Bert-base-arabic-camelbert-da-sentiment (阿拉伯骆驼鸟 Bert)、Multilingual-BERT 和 BERT 模型对 14 种非洲语言进行情感分析。结果表明 Afro-xlmr-large 模型在大多数语言中表现更好,尼日利亚语言:豪萨语、伊博语和约鲁巴语相对于其他语言表现更好。
Apr, 2023