SemEval-2014 任务 9: Twitter 中的情感分析
本文介绍了 2015 年 SemEval 共享任务,即推特情感分析。该任务为历年来最受欢迎的情感分析任务,共有超过 40 支团队参与。今年的任务共有五个情感预测子任务,其中两个为往年任务的重现,另外三个则为全新任务,旨在预测单个推特中对主题的情感、一组推特中对主题的总体情感以及短语先前极性的程度。
Dec, 2019
通过提出 SemEval-2013 任务 2:Twitter 情感分析的表达级子任务和消息级子任务以及在亚马逊机械土耳其上使用众包技术标记大型 Twitter 训练数据集及其他的测试集,对情感分析在社交媒体上进行了研究。该研究因结果的准确性获得了广泛关注和讨论。
Dec, 2019
该论文描述了 Twitter 情感分析任务的第五个年头,继续重新运行了 SemEval-2016 任务 4 的子任务,其中包括对推文整体情感、针对话题的情感以及情感分布的量化等。相较于 2016 年,我们还引入了一种新的语言,即阿拉伯语,并提供了发布目标推文的 Twitter 用户档案信息。今年共有 48 个团队参加了这项任务。
Dec, 2019
本文简要介绍了作者和团队参加 SemEval2016 挑战赛的情况,讨论了在 Twitter 情感分析任务中的方法和步骤,其中使用了两阶段方法,最终使用集成学习方法来得出排名靠前的结果。
Jun, 2016
本文介绍如何使用基于 SVM 算法的两种分类器来检测消息(如推文和短信)的情感和词汇层面上的情感,并详细描述了使用各种表层形式、语义和情感特征进行实现。其中,基于词典的特征在所有特征中获得了 5 个 F-score 点的增益,两个系统都可以使用现有资源进行复制。
Aug, 2013
使用 BERT 模型对 SemEval2017 中 Twitter 上的英语情感分析任务 4A 进行解决,在训练数据量较小的分类任务中,BERT 是一个非常强大的大型语言模型。使用此模型进行实验时,我们使用了包含 12 个隐藏层的 BERT BASE 模型,该模型在准确性、精确率、召回率和 F1 分数上优于朴素贝叶斯基线模型,在二分类子任务中表现更好,我们还在实验过程中考虑了所有种类的伦理问题,因为 Twitter 数据包含个人和敏感信息。我们在此 GitHub 存储库中提供了实验中使用的数据集和代码。
Jan, 2024
该研究介绍了如何使用自然语言处理技术对不同领域的文本进行情感分析,特别是针对语言混合推文的预处理以及 Bidirectional Encoder Representation from Transformers(BERT)的调优的方法,并在 SemEval-2020 的竞赛中取得了很好的成绩。
Dec, 2020
介绍了 BLP 情感共享任务的概述,该任务是在 2023 BLP 研讨会上举办的,与 EMNLP 2023 同时举行。该任务的定义是在给定的社交媒体文本中检测情感。
Oct, 2023
本文介绍了在 SemEval-2018 挑战赛中参赛的深度学习模型及其应用。采用 Bi-LSTM 网络结构和多层自注意力机制,利用大量 Twitter 数据的 word2vec 词向量嵌入和情感特征,通过预先训练 Semeval 2017 年的数据集进行迁移学习,最终在多个子任务中取得了显著的结果。
Apr, 2018
本文介绍了 SemEval-2020 任务 9 关于混合代码推文情感分析(SentiMix 2020)的结果,释放和描述了标记有单词级别语言识别和句子级别情感标签的 Hinglish(印地语 - 英语)和 Spanglish(西班牙语 - 英语)语料库。最好的表现是在 Hinglish 和 Spanglish 分别获得了 75.0% F1 得分和 80.6% F1 得分。观察到在比赛者中 BERT-like 模型和集合方法是最常见和成功的方法。
Aug, 2020