基于大型语言模型的可解释假新闻检测及竞争智慧中的防御
本研究提供了一种端到端模型,该模型可对文字主张进行证据感知的可信度评估,不需要任何人类干预,并通过聚合来自外部证据文章的信号,这些文章的语言以及其来源的可信度来生成用户可理解的解释,从而提高了之前工作的局限性,实验证明其有效性。
Sep, 2018
本文研究了大型语言模型时代中的假新闻检测问题,发现仅训练于人工编写文章的检测器在检测机器生成的假新闻方面表现良好,但反之不成立。此外,由于检测器对机器生成的文本存在偏见,需要在训练集中使用比测试集中较低比例的机器生成新闻。基于我们的发现,我们提供了一个实用的策略来开发健壮的假新闻检测器。
Nov, 2023
人们现在认为社交媒体是他们唯一的信息来源,但同时社交媒体上假新闻也呈指数级增长。本文强调可解释的假新闻检测在当前技术水平上的现状,并介绍了我们正在开展的多模态可解释假新闻检测模型研究。
Jul, 2022
该研究提出了一种可解释和在线的分类方法,结合无监督和有监督的机器学习方法,使用自然语言处理技术基于创建者、内容和上下文的特征,识别和解释社交媒体中的虚假新闻,并通过数据流处理提供实时的早期检测、隔离和解释,从而提高社交媒体内容的质量和可信度。
May, 2024
本文介绍了一种有效的防御机制,其可以用于防御包括图像和标题在内的机器生成的虚假新闻,并通过创建一个包含 4 种不同类型的生成文章的 NeuralNews 数据集以及进行一系列基于此数据集的人类用户研究实验来确定敌方可能会利用的潜在弱点。此外,本文提供了一种相对有效的方法,基于检测视觉语义不一致性的方法,这将成为有效的第一防线和未来防御机器生成的虚假信息的有用参考资料。
Sep, 2020
本研究提出了一种基于媒体上流传的原始报道的可解释的假新闻检测方法,使用粗到细的级联证据蒸馏神经网络来选择最可解释的句子以提供 verdict,并构建了两个可公开获取的可解释假新闻数据集。实验表明,该模型显著优于现有基线模型,从不同角度提供高质量的解释。
Sep, 2022
本文探讨了现有的假新闻检测方法存在的问题,并提出加入事实核查与语言分析相结合的方法,以应对新闻篡改攻击和真实新闻被误判的情况。作者提出采用众包知识图谱解决新闻事件事实搜集的问题。
Jan, 2019
通过多轮检索策略从网络源自动抽取关键证据进行主张验证的检索增强 LLMs 框架是第一种能自动地并有目的性地从网页信息中提取关键证据的框架,通过在三个现实世界数据集上进行全面的实验证明了该框架对现有方法的优越性。重要的是,我们的模型不仅提供准确的结论,还提供可读的解释,以提高结果的可解释性。
Mar, 2024