UIT-HSE 在 WNUT-2020 任务 2 中利用 CT-BERT 识别 Twitter 社交网络上的 COVID-19 信息
该篇论文描述了在 WNUT-2020 共享任务 2 中开发的针对 COVID-19 英文推文信息识别的系统。研究者团队利用 BERT 模型进行了文本分类任务,并且通过对 BERT 模型的微调以及将其嵌入特征与推文特定特征连接后再采用支持向量机(SVM)进行训练(即 BERT +),并与一组机器学习模型进行性能比较。结果表明 BERT + 模型在 F1-score 评估指标上得分最高为 0.8713。
Dec, 2020
本文介绍了我们提交的 WNUT-2020 任务 2 的成果:识别信息量大的 COVID-19 英文推文的半监督学习转换器集成模型,它在测试集上取得了 0.9011 的 F1 值(排名第 7),与使用 FastText 嵌入的基准系统相比表现显著提高。
Sep, 2020
本文概述了 WNUT-2020 共享任务,重点是识别有信息含义的 COVID-19 英文推文。文章介绍了 10k 推文语料库的建立、开发和评估各阶段的组织、55 个团队提交的最终系统评估结果,并发现大多数提交结果明显高于 fastText 基线。本研究发现在相关语言数据调整预训练语言模型并进行监督训练可以在这个任务中得到很好的表现。
Oct, 2020
本文介绍了使用基于 Transformer 的 COVID-Twitter-BERT(CT-BERT)模型集合的方法来检测英文 COVID-19 虚假新闻的结果和表现。在约 166 个团队中,该方法在第一个共享任务的测试集上取得了最高的加权 F1 得分 98.69。
Dec, 2020
该论文介绍了基于 transformer 的 COVID-Twitter-BERT 模型,通过对大量 Twitter 上有关 COVID-19 的消息进行预训练,该模型在五个不同的分类数据集上相较于 BERT-Large 基础模型提高了 10-30%,特别是在 COVID-19 内容(尤其是来自 Twitter 的社交媒体帖子)的分类中表现更突出,从而实现了优化。该模型可以用于文本分类、问答和聊天机器人等自然语言处理任务。
May, 2020
使用 transformers 模型的方法识别社交媒体上的信息性推文,取得了 WNUT-2020 第 10 名的 F1 分数 0.9004。
Oct, 2020
使用 COVID-Twitter-BERT 和 RoBERTa 模型实验性地识别 COVID-19 推文,进一步实验了对抗性训练,使我们的模型更加稳健,模型集成达到了 WNUT-2020 任务 2 测试数据中的 0.9096 的 F1 得分,并在排行榜上排名第一,对抗性训练的模型集成也产生了类似的结果。
Oct, 2020
本文介绍了我们在 2020 年 WNUT Shared Task-3 中提交的某个系统入口,该入口旨在自动从 Twitter 上提取各种 COVID-19 相关事件(如最近感染该病毒的个体、被拒绝进行检测并相信对抗此感染的治疗措施等)。该系统使用 COVID-Twitter-Bert 捕捉有用的信息块,并以无集合或其他数据集的 F1 排名第一。
Dec, 2020
我们的团队 “techno” 参加了 CERIST'22 共享任务,利用自然语言处理工具和 BERT 预训练语言模型,对与 COVID-19 疫情有关的 4128 个推文进行了情感分析和 8661 个推文进行了虚假新闻检测任务,并获得了情感分析任务 0.93 的准确度和虚假新闻检测任务 0.90 的准确度。
Apr, 2023
本文介绍了 QMUL-SDS 团队在 CLEF 2020 CheckThat! 共享任务的任务 1 中所做的工作,使用 COVID-Twitter-BERT(CT-BERT)和机器学习方法进行虚假新闻辨识。该团队使用了数值表达式增强的 CNN 方法,采用了其他话题谣言的训练数据增强技术来提高性能,并展示了最终的排名及预计的改进空间。
Aug, 2020