TwiSE 在 SemEval-2016 任务 4 中的应用:推特情感分类
通过提出 SemEval-2013 任务 2:Twitter 情感分析的表达级子任务和消息级子任务以及在亚马逊机械土耳其上使用众包技术标记大型 Twitter 训练数据集及其他的测试集,对情感分析在社交媒体上进行了研究。该研究因结果的准确性获得了广泛关注和讨论。
Dec, 2019
该论文描述了 SemEval-2014 中的 Twitter 情感分析任务,介绍了新的测试集并报道了最高 F1 分数达到 86.63(子任务 A)和 70.96(子任务 B)的结果。
Dec, 2019
本文介绍了 2015 年 SemEval 共享任务,即推特情感分析。该任务为历年来最受欢迎的情感分析任务,共有超过 40 支团队参与。今年的任务共有五个情感预测子任务,其中两个为往年任务的重现,另外三个则为全新任务,旨在预测单个推特中对主题的情感、一组推特中对主题的总体情感以及短语先前极性的程度。
Dec, 2019
该论文描述了 Twitter 情感分析任务的第五个年头,继续重新运行了 SemEval-2016 任务 4 的子任务,其中包括对推文整体情感、针对话题的情感以及情感分布的量化等。相较于 2016 年,我们还引入了一种新的语言,即阿拉伯语,并提供了发布目标推文的 Twitter 用户档案信息。今年共有 48 个团队参加了这项任务。
Dec, 2019
使用 BERT 模型对 SemEval2017 中 Twitter 上的英语情感分析任务 4A 进行解决,在训练数据量较小的分类任务中,BERT 是一个非常强大的大型语言模型。使用此模型进行实验时,我们使用了包含 12 个隐藏层的 BERT BASE 模型,该模型在准确性、精确率、召回率和 F1 分数上优于朴素贝叶斯基线模型,在二分类子任务中表现更好,我们还在实验过程中考虑了所有种类的伦理问题,因为 Twitter 数据包含个人和敏感信息。我们在此 GitHub 存储库中提供了实验中使用的数据集和代码。
Jan, 2024
使用卷积神经网络与长短时记忆网络,我们成功实现了最先进的 Twitter 情感分类器,通过海量无标注数据来预训练词向量,然后使用少量无标注数据通过远程监督来微调嵌入向量,最终在 SemEval-2017 Twitter 数据集上对 CNN 和 LSTM 进行了再次微调,使用了集成学习方法,我们在所有五个英文子任务中均排名第一。
Apr, 2017
本文介绍了在 SemEval-2018 挑战赛中参赛的深度学习模型及其应用。采用 Bi-LSTM 网络结构和多层自注意力机制,利用大量 Twitter 数据的 word2vec 词向量嵌入和情感特征,通过预先训练 Semeval 2017 年的数据集进行迁移学习,最终在多个子任务中取得了显著的结果。
Apr, 2018
使用远程监督学习的 Word2Vec Skip-Gram 模型,以及递归神经网络,识别推文作者态度的高效系统。
Jun, 2016
通过 SemEval-2023 任务 12,使用 Twitter 数据组进行低资源非洲语言情感分析。使用预训练的 Afro-xlmr-large、AfriBERTa-Large、Bert-base-arabic-camelbert-da-sentiment (阿拉伯骆驼鸟 Bert)、Multilingual-BERT 和 BERT 模型对 14 种非洲语言进行情感分析。结果表明 Afro-xlmr-large 模型在大多数语言中表现更好,尼日利亚语言:豪萨语、伊博语和约鲁巴语相对于其他语言表现更好。
Apr, 2023