Ax-to-Grind Urdu: 乌尔都语虚假新闻检测基准数据集
本文简要介绍了 2020 年 FIRE 第一次共享任务中的虚假新闻检测在乌尔都语中的应用及其表现,这是一个二元分类任务,旨在通过使用 900 个经过注释的新闻文章进行训练和 400 个新闻文章进行测试以识别虚假新闻。最好的性能系统 F 值为 0.90,表明 BERT-based 方法优于其他机器学习分类器。来自 6 个不同国家的 42 个团队注册了该任务,其中 9 个团队提交了结果。
Jul, 2022
本篇研究报告了第二项 “UrduFake@FIRE2021” 任务,该任务提供了对乌尔都语中的新闻进行虚假新闻检测的二分类问题,通过使用不同的分类器和神经网络体系结构基于各种计数特征训练的方法以及采用 SGD 算法,在来自 7 个国家的 34 个团队的参与下,最终获得了 0.679 F 值的最佳结果。
Jul, 2022
该论文介绍了在乌尔都语中检测假新闻的首个共享任务,通过二元分类,使用包含五个领域的新闻数据集进行实验,42 个来自 6 个国家的团队参与了这项任务,最佳性能的系统采用 BERT 机器学习方法,取得了 0.90 的 F-score。
Jul, 2022
该研究报告介绍了 UrduFake@FIRE2021 的第二个共享任务,它是针对乌尔都语中的假新闻检测的二元分类问题。在该任务中,参与者使用了各种数据表示和机器学习算法,大部分参与者都使用了 BERT 和 RoBERTa 等转换器。其中最佳表现系统获得了 0.679 的 F1 宏分数,低于去年的最佳结果 0.907 F1-macro。
Jul, 2022
本文提出了一个可用于建立自动检测低资源语言(如孟加拉语)虚假新闻系统的标注数据集,同时提供了数据集分析和基准系统,采用传统语言特征和神经网络技术,为防止虚假信息传播建立技术贡献。
Apr, 2020
本文介绍了参加 FIRE 2021 共享任务的系统描述:“乌尔都语中的虚假新闻检测”。研究目的在于自动识别乌尔都语中写的虚假新闻。我们的结果在比赛中排名第五,但是在比赛结果公布后,我们的结果得到了进一步改善。我们的其中一个模型在支持向量机(使用多项式核函数,数字为 1)上的最佳 F1 宏平均分数为 0.6674,比比赛中排名第二的分数更高。结果是通过去除停用词、应用词形还原并从总共 1,557,000 个生成的单词 n-gram n=1,2,3,4 和字符 n-gram n=2,3,4,5,6 中选择 20k 个最佳特征而实现的。代码已提供用于再现。
Apr, 2022
针对孟加拉语中的虚假新闻检测,本研究基于大规模数据集,使用了多种深度学习模型,包括双向 GRU 模型、LSTM 模型、1D 卷积神经网络模型以及混合架构模型,通过全面试验证实了这些模型在识别孟加拉语虚假新闻方面的有效性,其中双向 GRU 模型的准确率高达 99.16%。研究结果强调了数据集平衡的重要性,以及对检测过程进行不断改进的必要性,为使用有限资源创建孟加拉语虚假新闻检测系统并为未来的改进工作奠定了基础。
Mar, 2024
为了理解不同领域的虚假信息,我们引入了一个新颖的多领域知识增强基准,名为 FineFake,它包含 16909 个数据样本,涵盖六个语义主题和八个平台,并提供多模态内容,潜在社会背景,半手动验证的常见知识和超越传统二进制标签的细粒度注释。基于 FineFake,我们还提出了三个具有挑战性的任务,并提出了一个知识增强的领域自适应网络,在各种情况下对 FineFake 进行了广泛的实验证明,为未来的研究提供了准确可靠的基准。整个 FineFake 项目可以在 https://github.com/Accuser907/FineFake 上作为开源资源进行访问。
Mar, 2024
使用机器学习分类模型是打击假新闻传播的有效方法,但缺乏有效的全面数据集一直是假新闻研究和检测模型发展的问题。Fakeddit 是一个新颖的多模态数据集,包括一百万个多个类别的假新闻样本,并通过远程监督进行两种,三种和六种分类。我们构建了混合文本 + 图像模型并进行了多个变体的分类实验,证明了 Fakeddits 的多模式和精细分类的重要性。
Nov, 2019
通过使用多个深度学习和预训练 Transformer 语言模型开发出一个可靠的检测系统,该论文介绍了孟加拉语虚假评论检测(BFRD)数据集,该数据集是用于识别孟加拉语虚假评论的第一个公开可用数据集,通过翻译英文单词和罗马化孟加拉语进行背音转写,提出一个独特的流程来转换评论中的非孟加拉语单词。最后,提出了一个加权集成模型,结合了四个预训练的 Transformer 模型:BanglaBERT、BanglaBERT Base、BanglaBERT Large 和 BanglaBERT Generator。经实验验证,该集成模型在 13390 条评论中(包括 1339 条实际虚假评论和使用 nlpaug 库生成的 5356 条扩增虚假评论以及从 7710 条非虚假实例中随机选取的 6695 条评论)获得了 0.9843 的加权 F1 得分,在使用 bnaug 库生成的虚假评论上获得了 0.9558 的加权 F1 得分。
Aug, 2023