WNUT-2020 任务 2 中的 InfoMiner:基于 Transformer 的 Covid-19 信息推文提取
本文介绍了我们提交的 WNUT-2020 任务 2 的成果:识别信息量大的 COVID-19 英文推文的半监督学习转换器集成模型,它在测试集上取得了 0.9011 的 F1 值(排名第 7),与使用 FastText 嵌入的基准系统相比表现显著提高。
Sep, 2020
以 COVID-Twitter-BERT (CT-BERT) 为基础的变形器模型和微调技术可以有效地识别有用的 COVID-19 相关的 Twitter 帖子,获得了 2020 年 W-NUT 共享任务 2 中排名第三的 F1 分数为 90.94%
Sep, 2020
本文概述了 WNUT-2020 共享任务,重点是识别有信息含义的 COVID-19 英文推文。文章介绍了 10k 推文语料库的建立、开发和评估各阶段的组织、55 个团队提交的最终系统评估结果,并发现大多数提交结果明显高于 fastText 基线。本研究发现在相关语言数据调整预训练语言模型并进行监督训练可以在这个任务中得到很好的表现。
Oct, 2020
本文提出了在 NLP4IF-2021 共享任务中使用 transformers 对社交媒体上的虚假信息进行检测的方法,并在三种语言的数据集中取得了第四的好成绩,分别为阿拉伯语 0.707,保加利亚语 0.578 和英语 0.864。
Apr, 2021
该篇论文描述了在 WNUT-2020 共享任务 2 中开发的针对 COVID-19 英文推文信息识别的系统。研究者团队利用 BERT 模型进行了文本分类任务,并且通过对 BERT 模型的微调以及将其嵌入特征与推文特定特征连接后再采用支持向量机(SVM)进行训练(即 BERT +),并与一组机器学习模型进行性能比较。结果表明 BERT + 模型在 F1-score 评估指标上得分最高为 0.8713。
Dec, 2020
使用 COVID-Twitter-BERT 和 RoBERTa 模型实验性地识别 COVID-19 推文,进一步实验了对抗性训练,使我们的模型更加稳健,模型集成达到了 WNUT-2020 任务 2 测试数据中的 0.9096 的 F1 得分,并在排行榜上排名第一,对抗性训练的模型集成也产生了类似的结果。
Oct, 2020
为了抗击 COVID-19 疫情期间社交媒体上的虚假信息,本文提出两种方法,一是 fine-tuning transformers-based language models,二是通过 influence data cleansing 去除危险的训练实例。通过在两个 COVID-19 虚假新闻测试集上评估模型,我们强调了此任务的模型泛化能力的重要性。最终模型可以达到高性能和模型泛化性能的平衡。
Jan, 2021
本研究提出了一种检测关于 COVID-19 的应该检查的推文的模型,将深度上下文化文本表示与建模推文的社交背景相结合,以帮助应对社交媒体上的虚假信息和广泛传播的假新闻的问题。
Sep, 2020
本文报告了一种基于 Transformer 模型(BERT、ALBERT 和 XLNET)的方法来分析 COVID-19 流行病期间社交媒体上共享信息的可靠性,以便快速检测假新闻,减少假信息的传播,该方法在 ConstraintAI 2021 共享任务 COVID19 Fake News Detection in English 中获得了 0.9855 的 f1 值,排名第 5。
Jan, 2021
本文提出了基于 Transformer 架构的预测模型,用于在 Twitter 文本中分类前提的存在,具有与其他 Transformer 模型相比更好的性能,并在 Twitter 数据集上取得了有竞争力的表现。
Sep, 2022