SGG:基于 Spinbot、Grammarly 和 GloVe 的假新闻检测
本文聚焦于自动识别在线新闻中的虚假内容,首先介绍了用于虚假新闻检测的新颖数据集,描述了收集、注释和验证过程,并提供诸多在区分真实和虚假新闻语言差异方面的探索性分析。其次,本文开展了一系列学习实验以构建准确的虚假新闻检测器,并比较了手动和自动识别虚假新闻的结果。
Aug, 2017
提出了两种基于深度学习的模型,用于在多个领域的在线新闻内容中解决虚假新闻检测问题,并在 FakeNews AMT 和 Celebrity 两个数据集上评估,取得了很好的性能并超过了当前最先进的基于手工特征工程的系统。同时,进行了跨领域分析以探索系统在不同领域的适用性。
May, 2020
本文探讨了现有的假新闻检测方法存在的问题,并提出加入事实核查与语言分析相结合的方法,以应对新闻篡改攻击和真实新闻被误判的情况。作者提出采用众包知识图谱解决新闻事件事实搜集的问题。
Jan, 2019
我们使用自然语言处理方法对 1876 条新闻数据进行预处理,通过训练模型将假新闻和真实新闻进行分类,最终通过 Naive Bayes 分类器得出 56% 的准确率和平均 32% 的 F1-macro 得分。
Sep, 2023
这篇研究通过多种神经和非神经预处理以及风格转移技术,消除了假新闻检测模型中情感、情绪、词性等易受攻击的指标,从而推断出这些模型中可能隐藏着可操纵的信号,并通过情感向量模型构建进一步证明了这一假设。
Apr, 2022
本文研究了大型语言模型时代中的假新闻检测问题,发现仅训练于人工编写文章的检测器在检测机器生成的假新闻方面表现良好,但反之不成立。此外,由于检测器对机器生成的文本存在偏见,需要在训练集中使用比测试集中较低比例的机器生成新闻。基于我们的发现,我们提供了一个实用的策略来开发健壮的假新闻检测器。
Nov, 2023
通过扩充大语言模型 (ChatGPT) 的事实核查,重新审视了由人类记者验证的现有虚假新闻数据集,并将扩充的虚假新闻数据集命名为 ChatGPT-FC。我们在评估新闻主题可信度、新闻创作者可信度、时态敏感度和政治框架方面定量分析了人类记者和 LLM 之间的差异和相似之处。我们的研究结果强调了 LLM 作为初步筛选方法的潜力,为减轻人类记者的固有偏见并增强虚假新闻检测提供了有希望的途径。
Dec, 2023
本文介绍了如何应用自然语言处理技术解决社交网络上的虚假新闻检测问题,并着重描述了该问题的挑战以及相关任务的形式、数据集和解决方案,并讨论了其潜力和局限性,并提出了更精细、详细、公平和实用的检测模型等研究方向。
Nov, 2018
在大语言模型 (LLMs) 时代,我们发现许多现有的假新闻检测器存在显著偏见,更容易将 LLMs 生成的内容标记为假新闻,而常常误将人类撰写的假新闻分类为真实。为了解决这个问题,我们引入了一种对抗训练与 LLMs 重写的真实新闻相结合的缓解策略,从而在人类和 LLMs 生成的新闻的检测准确性方面取得了显著的改进。为了进一步推动该领域的研究,我们发布了两个全面的数据集 “GossipCop++” 和 “PolitiFact++”,将经人工验证的文章与 LLMs 生成的假新闻和真实新闻相结合。
Sep, 2023