利用 CT-BERT 和集成学习进行 COVID-19 虚假新闻检测在 Constraint@AAAI2021 上的 g2tmn
本文描述了我们在 AAAI 2021 英语 COVID-19 假新闻检测共享任务中的系统,我们采用了不同的预训练语言模型,如 BERT,Roberta,Ernie 等等,包括预热,学习率调度和 K 倍交叉验证等各种训练策略,提出了一种集合方法,并在测试集上获得了 0.9859 的加权 F1 分数。我们还对未正确分类的样本进行了广泛的分析。
Jan, 2021
本文报告了一种基于 Transformer 模型(BERT、ALBERT 和 XLNET)的方法来分析 COVID-19 流行病期间社交媒体上共享信息的可靠性,以便快速检测假新闻,减少假信息的传播,该方法在 ConstraintAI 2021 共享任务 COVID19 Fake News Detection in English 中获得了 0.9855 的 f1 值,排名第 5。
Jan, 2021
以 COVID-Twitter-BERT (CT-BERT) 为基础的变形器模型和微调技术可以有效地识别有用的 COVID-19 相关的 Twitter 帖子,获得了 2020 年 W-NUT 共享任务 2 中排名第三的 F1 分数为 90.94%
Sep, 2020
本文介绍了我们的虚假新闻检测系统,它利用预训练的集成模型自动识别与 COVID-19 相关的推文是否为 “真实” 或 “虚假”,并通过引入基于用户名和链接域的启发式算法显著提高了准确率,达到了最先进的结果。
Jan, 2021
我们的团队 “techno” 参加了 CERIST'22 共享任务,利用自然语言处理工具和 BERT 预训练语言模型,对与 COVID-19 疫情有关的 4128 个推文进行了情感分析和 8661 个推文进行了虚假新闻检测任务,并获得了情感分析任务 0.93 的准确度和虚假新闻检测任务 0.90 的准确度。
Apr, 2023
该研究利用基于转换器的五种模型 (BERT、BERT without LSTM、ALBERT、RoBERTa 和 BERT & ALBERT 混合) 对 COVID 19 虚假新闻进行比较分析,其中 RoBERTa 模型在真假两类中均获得 0.98 的 F1 得分,相比其他模型表现更佳。
Aug, 2022
本文提出了一种基于变压器的语言模型微调方法,用于检测 COVID-19 假新闻,该方法通过扩展专业短语的语义,适应热身 softmax 损失以区分硬挖掘样本,并通过对抗性训练提高模型的鲁棒性,采用 RoBERTa 和领域专用模型 CT-BERT 提取预测特征,并由一个多层感知器融合细粒度和高级别的特定表示。经 COVID-19 假新闻数据集评估,实验结果在各种评估指标上都表现优越,最好的加权平均 F1 得分为 99.02%。
Jan, 2021
本研究为 Constraint 2021 年 COVID-19 虚假新闻检测共享任务做出了贡献,提出了将经典机器学习算法与语言学特征相结合的方法,在数据预处理方面进行了多种尝试并得到了不错的结果。通过使用线性支持向量机算法,在测试数据上获得了 95.19% 的加权平均 F1 得分,名列排行榜第 80 位。
Jan, 2021
研究者通过设计和应用不同的机器学习模型,在探测虚假新闻方面取得了进展,但现有研究对于快速变化的主题和领域特定词汇的虚假新闻重视不够。本文提出了在特定与 COVID-19 相关主题中进行三项虚假新闻检测任务的方法和结果,并试验了一组基于文本的模型,包括支持向量机、随机森林、BERT 和 RoBERTa。发现预训练转换器可以产生最佳的验证结果,但经过智能设计的随机初始化转换器也可以训练达到接近预训练转换器的准确度。
May, 2022
为了抗击 COVID-19 疫情期间社交媒体上的虚假信息,本文提出两种方法,一是 fine-tuning transformers-based language models,二是通过 influence data cleansing 去除危险的训练实例。通过在两个 COVID-19 虚假新闻测试集上评估模型,我们强调了此任务的模型泛化能力的重要性。最终模型可以达到高性能和模型泛化性能的平衡。
Jan, 2021