BLP 2023 任务 2:情感分析
本文讨论了 nlpBDpatriots 参加首届与 EMNLP 合作举办的 Bangla 语言处理(BLP)研讨会上共享任务的社交媒体帖子情感分析。我们使用孟加拉语数据集,该数据集由共享任务组织者提供,并注有积极、中性和消极标签,旨在确定社交媒体内容的极性。我们最好的系统是数据增强的迁移学习方法,其 micro F1 分数达到 0.71。在参加比赛的 30 支球队中,我们的最好系统排名第 12 位。
Nov, 2023
通过提出 SemEval-2013 任务 2:Twitter 情感分析的表达级子任务和消息级子任务以及在亚马逊机械土耳其上使用众包技术标记大型 Twitter 训练数据集及其他的测试集,对情感分析在社交媒体上进行了研究。该研究因结果的准确性获得了广泛关注和讨论。
Dec, 2019
本文介绍了 2015 年 SemEval 共享任务,即推特情感分析。该任务为历年来最受欢迎的情感分析任务,共有超过 40 支团队参与。今年的任务共有五个情感预测子任务,其中两个为往年任务的重现,另外三个则为全新任务,旨在预测单个推特中对主题的情感、一组推特中对主题的总体情感以及短语先前极性的程度。
Dec, 2019
本论文描述了我们在 BLP 研讨会的共享任务 2 中对孟加拉社交媒体帖子进行情感分析的方法,我们通过使用多语言 BERT 模型进行实验和微调,并使用多数投票和加权集成模型,取得了优于基准模型的成绩,分数为 0.711,排名共享任务排行榜的第 10 位。
Oct, 2023
该论文描述了 SemEval-2014 中的 Twitter 情感分析任务,介绍了新的测试集并报道了最高 F1 分数达到 86.63(子任务 A)和 70.96(子任务 B)的结果。
Dec, 2019
该研究通过使用六种语言模型并采用迁移学习和微调技术,开发了用于 14 种不同非洲语言情感分析的多语言模型,最终在开发和测试数据中取得了 F1 得分。结果表明跨多种语言的情感分析可以通过迁移学习和微调技术实现,该方法可以应用于其他语言和领域的情感分析任务。
Apr, 2023
这篇论文使用基于 Transformer 的架构进行情感分析,以解决 Bangla 这种低资源语言的问题,并通过细调模型在推特数据上获得最佳性能。同时,还进行了详细的错误分析。
Oct, 2023
该研究以 BanglaBert 为基础,利用多种策略进行情感分析,并建立了一个包含三种最佳 BanglaBert 变体的集成模型,在 BLP-2023 中的排名为第三。
Nov, 2023
本文描述了我们为 SemEval-2023 任务 12 而设计的系统:对非洲语言进行情感分析。为了缓解低资源环境下标记数据和语言资源的短缺问题,我们提出了一个通用的多语言系统 SACL-XLMR,用于对低资源语言进行情感分析。我们的系统在多语言和零样本情感分类子任务中表现出色,并在零样本分类子任务中获得了官方排名的第一名。
Jun, 2023
本篇论文描述了研究团队为 SemEval-2020 Task 9 开发的两个系统,用于涵盖印地语 - 英语和西班牙语 - 英语这两种混合语言。通过介绍利用多种神经网络方法和预训练的单词嵌入的解决方案,我们提出的多语言 BERT 方法在印地语 - 英语任务中取得了有前途的表现,平均 F1 得分为 0.6850,对于西班牙语 - 英语任务,我们使用另一种基于 Transformer 的多语言模型 XLM-RoBERTa 获得了平均 F1 得分为 0.7064,排名团队第 17 位 (29 个参赛者中).
Sep, 2020