SemEval-2020 任务 10:视觉媒体中书面文本的重点选择
本文介绍了一种用于解决 SemEval-2020 任务 10 中提出的问题的系统:如何强调视觉媒体中的书面文本。我们提出了一种端到端模型,它以文本为输入,并对每个单词给出该单词被强调的概率。我们的结果表明,基于 Transformer 的模型在这个任务中特别有效。我们取得了 0.810 的最佳 Matchm 得分,并在排行榜上排名第三。
Jul, 2020
ERNIE 团队在 SemEval-2020 的任务 10 中取得第一名,提出了一种利用无监督预训练模型并在任务中进行微调的方法来寻找给定句子中最重要的单词,并证明这种方法可以通过额外的特征工程和数据增强来提高表现。最终他们的模型取得了 0.823 的最高分,在所有指标上位居第一。
Sep, 2020
SemEval-2021 任务 6 描述了使用文本和图像进行说服技巧检测的数据、标注指南、评估设置、结果和参与系统,共吸引了 71 个注册和 22 个团队参与。该任务的重点在于检测拼贴图中的文本中使用的说服技巧,包括检测的技巧、文本跨度和拼贴图中的技巧。结果显示,在双模态中,文本和图像都很重要,一些团队采用联合模型建模了其交互作用,并获得了增益。
Apr, 2021
本研究介绍了一个新颖的多模式多任务学习架构,该架构将 ALBERT 文本编码与 VGG-16 图像表示相结合,可用于分析互联网迷因,该方法在 SemEval-2020 Task 8 比赛的三个子任务中,均超过了官方基线结果。
Sep, 2020
本研究探讨使用 BERT 为基础的模型,通过迁移学习方式在多种表现形式的文本和图像中进行细微调整来检测饱受欢迎的疫情行销手法,如梗图。我们还尝试了不同模型的集合效果,在三个子任务上分别获得了 57.0%,48.2%和 52.1%的 F1-score。
Jun, 2021
本研究借助一份新的数据集研究了演示文稿中强调词的选择,并结合基于共享任务的多位研究者的结果,评估了一系列最先进的模型,提出了不同的分析组件。
Jan, 2021
本文提出了两种方法(BiLSTM-ELMo 和基于 RoBERTa 和 XLNet 的 transformers)来预测幻灯片中每个单词的强调程度,并在评估排行榜上获得了 0.518 分,位列第 3 名,在后评估排行榜上获得了 0.543 分,位列第 1 名。
Jan, 2021
我们介绍了一种基于 GPT-4 生成字幕的方法,通过 fine-tune RoBERTa 作为文本编码器和 CLIP 作为图像编码器,改进了以文本和图像为基础的表意编码,取得了明显的性能提升。
Apr, 2024
此研究旨在解决在线新闻传播中存在的虚假信息扩散的问题,使用 SemEval-2023 Task 3 来分析和验证新闻文章中的写作技巧,以影响读者的观点,研究结果表明我们的系统在 27 个测试中位列前三。
May, 2023
本篇论文描述了研究团队为 SemEval-2020 Task 9 开发的两个系统,用于涵盖印地语 - 英语和西班牙语 - 英语这两种混合语言。通过介绍利用多种神经网络方法和预训练的单词嵌入的解决方案,我们提出的多语言 BERT 方法在印地语 - 英语任务中取得了有前途的表现,平均 F1 得分为 0.6850,对于西班牙语 - 英语任务,我们使用另一种基于 Transformer 的多语言模型 XLM-RoBERTa 获得了平均 F1 得分为 0.7064,排名团队第 17 位 (29 个参赛者中).
Sep, 2020