探索在 Grover 上的语义扰动
该研究呈现了一种名为 Grover 的可控文本生成模型,该模型可生成逼真的假新闻,但通过使用 Grover 模型自身进行验证,可提高检测真假信息的准确性。同时,该研究强调在探索和应对类似 Grover 模型可能带来的风险时,需关注其中的道德问题。
May, 2019
本文探讨了现有的假新闻检测方法存在的问题,并提出加入事实核查与语言分析相结合的方法,以应对新闻篡改攻击和真实新闻被误判的情况。作者提出采用众包知识图谱解决新闻事件事实搜集的问题。
Jan, 2019
本文介绍了一种有效的防御机制,其可以用于防御包括图像和标题在内的机器生成的虚假新闻,并通过创建一个包含 4 种不同类型的生成文章的 NeuralNews 数据集以及进行一系列基于此数据集的人类用户研究实验来确定敌方可能会利用的潜在弱点。此外,本文提供了一种相对有效的方法,基于检测视觉语义不一致性的方法,这将成为有效的第一防线和未来防御机器生成的虚假信息的有用参考资料。
Sep, 2020
通过使用出版商元数据以隐含发布者的模板、文本类型、政治立场和可信度,我们提出了一种新颖的验证框架 Style-News,用于防止有害的虚假信息从恶意社交媒体传播,同时通过识别风格与出版商对应以及区分给定新闻的来源是人类撰写还是机器生成,我们训练了一个适应特定出版商生成新闻内容的风格感知神经网络生成器和风格和来源鉴别器。通过整合各种维度指标(语言流畅性、内容保留性和风格遵循性)评估生成内容的质量,我们证明了 Style-News 在流畅性上超过了以前的方法 0.35,内容上高出 15.24,风格上高出 0.38 的幅度。此外,我们的鉴别模型在发布者预测(高达 4.64%)和神经假新闻检测(+6.94%~31.72%)方面优于最先进的基准模型。
Jan, 2024
研究分析了基于混合图神经网络和 transformer 模型的社交语境对于发现假新闻的作用,并且在 PolitiFact 和 Gossipcop 数据集上获得了 0.91 和 0.93 的 f1 得分,表现优于基线模型。
Jul, 2022
本文提出了一个对抗性基准测试,旨在测试虚假新闻检测器推理现实世界事实的能力,使用 BERT 分类器 fine-tuned 在 LIAR arXiv:arch-ive/1705648 和 Kaggle Fake-News 数据集上,结果显示这两种模型在处理组合语义、词汇关系和修饰符等方面的意思变化上存在失败的情况。这表明虚假新闻检测器需要与其他事实检查方法一起使用。
Jan, 2022
通过图论和深度学习的方法对基于图的假新闻检测进行系统的综述,将现有方法分类为知识驱动、传播驱动和异构社交环境驱动的方法,并讨论了图论假新闻检测中的挑战和未来研究方向。
Jul, 2023
本文研究了大型语言模型时代中的假新闻检测问题,发现仅训练于人工编写文章的检测器在检测机器生成的假新闻方面表现良好,但反之不成立。此外,由于检测器对机器生成的文本存在偏见,需要在训练集中使用比测试集中较低比例的机器生成新闻。基于我们的发现,我们提供了一个实用的策略来开发健壮的假新闻检测器。
Nov, 2023
这篇研究通过多种神经和非神经预处理以及风格转移技术,消除了假新闻检测模型中情感、情绪、词性等易受攻击的指标,从而推断出这些模型中可能隐藏着可操纵的信号,并通过情感向量模型构建进一步证明了这一假设。
Apr, 2022
研究者们提出了使用数据科学和机器学习技术自动检测社交媒体上的假新闻的最先进模型,但我们的工作提出了一个新的威胁模型,并通过 MALCOM 攻击框架展示了其对五种最新的神经检测模型的攻击效果,能够在平均 94%和 93.5%的时间内成功欺骗目标标签。
Sep, 2020