SemEval-2023 论文集中的 MarsEclipse: 对比学习辅助的多语言多标签框架检测
该论文介绍了零样本学习下多语种多标签框架检测任务的获胜系统,其采用多语种 Transformers 进行预训练,并使用有标签的对比损失函数。此外,作者进行了嵌入空间分析和消融研究,证明了他们的预训练程序如何支持框架检测,推动了计算框架分析的发展。
Mar, 2023
本文提出了在 SemEval 2023 任务 3 的子任务 3 中检测说服技巧的最佳解决方案,主要是通过细调预训练的基于 Transformer 的语言模型来处理多语言输入数据和多个预测标签,该方案使用大型的跨语言模型(XLM-RoBERTa 大型模型)在所有输入数据上联合训练,而且针对已知语言和未知语言分别设置合理的置信度阈值,最终在 9 种语言中的 6 种语言上(包括两个未知语言)表现最优秀并取得了高度竞争的结果。
Apr, 2023
本文介绍了 Team Hitachi 参与 SemEval-2023 任务 3“检测多语言环境下在线新闻中的流派、框架和说服技巧” 的经验。通过多项实验,作者发现跨语言 / 多任务训练与收集外部平衡数据集有益于流派和框架检测,并构建集成模型在检测意大利语和俄语流派分类子任务方面实现了最高的宏平均 F1 分数。
Mar, 2023
此研究旨在解决在线新闻传播中存在的虚假信息扩散的问题,使用 SemEval-2023 Task 3 来分析和验证新闻文章中的写作技巧,以影响读者的观点,研究结果表明我们的系统在 27 个测试中位列前三。
May, 2023
研究使用多语言集成模型,针对 SemEval-2023 任务 3:在在线新闻中检测类别、框架和说服技巧。在三个子任务中,使用 RoBERTa 和 mBERT 等方法,分别在不同语言中获得前几名的结果。
Mar, 2023
这篇文章讲述了 QUST 团队参与 SemEval2023 任务 3 的情况,使用多语言模型并结合类权重和样本权重进行 fine-tuning,采用任务不相关和任务相关的两种微调策略,在 10 倍交叉验证下,多语言方法表现优于单语言方法,在子任务 1 的意大利语和西班牙语(零 - shot)方面取得第二名。
Apr, 2023
本文介绍了我们在 SemEval 2022 Task 11:MultiCoNER Multilingual Complex Named Entity Recognition 中取得的成果,即:在多语言 NER 任务中,提供了一个统一的框架;在低资源代码混合 NER 任务中,采用了几种简单的数据增强方法;在中文任务中,提出了一种可以捕捉中文词汇语义、词汇边界和词汇图结构信息的模型。最后,我们的系统在子任务 11、12 和 9 的测试阶段分别获得了 77.66、84.35 和 74.00 的宏 F1 得分。
Apr, 2022
通过整合文本、音频和视觉模态的专门情感编码器,我们提出了一种新颖的多模态情感识别和多模态情感因果抽取(MER-MCE)框架,与其他顶级团队相比,我们的方法利用模态特定特征来增强情感理解和因果推断,并进行了实验性评估来展示其优势,我们的成绩在加权 F1 得分中排名第三,仅相差 0.0339 分以及第一名队伍,相差 0.0025 分以及第二名队伍。
Mar, 2024
SemEval-2024 任务 8 专注于多产生器、多领域和多语言黑盒机器生成文本检测,并应用语言识别和参数高效微调小型 LLM 进行文本分类,通过每种语言分类阈值校准将微调模型预测与统计检测指标相结合,提高系统检测性能的泛化能力,我们的方案取得了竞争力的结果,在第四名,仅比冠军低 1 个百分点。
Feb, 2024
本文介绍了 QUST 团队参与 SemEval 2024 任务 8 的研究,通过数据增强和清洗来提高模型训练效率和准确性,评估了传统的深度学习方法、多尺度正负未标记框架(MPU)、微调、适配器和集成方法,并选择了在单语任务中准确性最高的模型,在子任务 A 和 B 中进行评估。最终模型构建采用了将微调与 MPU 相结合的堆叠集成方法。我们的系统在多语言设置下的子任务 A 官方测试集中获得第八名(准确性得分第 13 名),我们在此链接发布了系统代码。
Feb, 2024