SemEval-2023 任务 3 的英国谢菲尔德 VeraAI 团队:新闻体裁、主题和说服技巧分类的单语和多语方法
本文提出了在 SemEval 2023 任务 3 的子任务 3 中检测说服技巧的最佳解决方案,主要是通过细调预训练的基于 Transformer 的语言模型来处理多语言输入数据和多个预测标签,该方案使用大型的跨语言模型(XLM-RoBERTa 大型模型)在所有输入数据上联合训练,而且针对已知语言和未知语言分别设置合理的置信度阈值,最终在 9 种语言中的 6 种语言上(包括两个未知语言)表现最优秀并取得了高度竞争的结果。
Apr, 2023
这篇文章讲述了 QUST 团队参与 SemEval2023 任务 3 的情况,使用多语言模型并结合类权重和样本权重进行 fine-tuning,采用任务不相关和任务相关的两种微调策略,在 10 倍交叉验证下,多语言方法表现优于单语言方法,在子任务 1 的意大利语和西班牙语(零 - shot)方面取得第二名。
Apr, 2023
此研究旨在解决在线新闻传播中存在的虚假信息扩散的问题,使用 SemEval-2023 Task 3 来分析和验证新闻文章中的写作技巧,以影响读者的观点,研究结果表明我们的系统在 27 个测试中位列前三。
May, 2023
本文介绍了 Team Hitachi 参与 SemEval-2023 任务 3“检测多语言环境下在线新闻中的流派、框架和说服技巧” 的经验。通过多项实验,作者发现跨语言 / 多任务训练与收集外部平衡数据集有益于流派和框架检测,并构建集成模型在检测意大利语和俄语流派分类子任务方面实现了最高的宏平均 F1 分数。
Mar, 2023
本文介绍了我们在 SemEval 2022 Task 11:MultiCoNER Multilingual Complex Named Entity Recognition 中取得的成果,即:在多语言 NER 任务中,提供了一个统一的框架;在低资源代码混合 NER 任务中,采用了几种简单的数据增强方法;在中文任务中,提出了一种可以捕捉中文词汇语义、词汇边界和词汇图结构信息的模型。最后,我们的系统在子任务 11、12 和 9 的测试阶段分别获得了 77.66、84.35 和 74.00 的宏 F1 得分。
Apr, 2022
本文介绍了 QUST 团队参与 SemEval 2024 任务 8 的研究,通过数据增强和清洗来提高模型训练效率和准确性,评估了传统的深度学习方法、多尺度正负未标记框架(MPU)、微调、适配器和集成方法,并选择了在单语任务中准确性最高的模型,在子任务 A 和 B 中进行评估。最终模型构建采用了将微调与 MPU 相结合的堆叠集成方法。我们的系统在多语言设置下的子任务 A 官方测试集中获得第八名(准确性得分第 13 名),我们在此链接发布了系统代码。
Feb, 2024
本研究探讨使用 BERT 为基础的模型,通过迁移学习方式在多种表现形式的文本和图像中进行细微调整来检测饱受欢迎的疫情行销手法,如梗图。我们还尝试了不同模型的集合效果,在三个子任务上分别获得了 57.0%,48.2%和 52.1%的 F1-score。
Jun, 2021
该研究使用多标签对比损失在多语言环境下对大型预训练语言模型进行微调,在 SemEval-2023 任务 3 子任务 2 的 Framing Detection 中表现竞争力十分强劲。
Apr, 2023
本文介绍了我们在 ArabicNLP 2023 的 ArAIEval 挑战中的最佳提交结果,我们主要关注任务 1,该任务涉及从推特和新闻文章的摘录中识别说服技巧,我们使用 XLM-RoBERTa 进行训练,并在阿拉伯语文本中检测到说服技巧。通过微调多语言语言模型,这种方法表现出很强的效果。在测试集评估中,我们在子任务 A 中取得了 0.64 的微观 F1 分数。
Oct, 2023
本篇论文描述了研究团队为 SemEval-2020 Task 9 开发的两个系统,用于涵盖印地语 - 英语和西班牙语 - 英语这两种混合语言。通过介绍利用多种神经网络方法和预训练的单词嵌入的解决方案,我们提出的多语言 BERT 方法在印地语 - 英语任务中取得了有前途的表现,平均 F1 得分为 0.6850,对于西班牙语 - 英语任务,我们使用另一种基于 Transformer 的多语言模型 XLM-RoBERTa 获得了平均 F1 得分为 0.7064,排名团队第 17 位 (29 个参赛者中).
Sep, 2020