可解释的虚假新闻检测器和可视化
ExFake 是一个基于内容和上下文级信息的可解释的假新闻检测系统,它关注在线帖子的真实性分析,基于其内容、社交背景(例如在线用户的可信度和历史行为)以及来自可信实体(如事实核查网站和命名实体)的数据。与现有技术不同,该系统还采用了可解释的 AI 助手,帮助在线社交网络用户在面对任何可疑信息在社交网络上传播时发展良好的反应能力。系统还通过为 OSN 用户分配可信度评分来解决 OSN 用户的可信度问题,因为 OSN 用户是传播假新闻的主要罪魁祸首。对真实数据集的实验分析表明,ExFake 在假新闻检测方面显著优于其他基准方法。
Nov, 2023
人们现在认为社交媒体是他们唯一的信息来源,但同时社交媒体上假新闻也呈指数级增长。本文强调可解释的假新闻检测在当前技术水平上的现状,并介绍了我们正在开展的多模态可解释假新闻检测模型研究。
Jul, 2022
该研究提出了一种可解释和在线的分类方法,结合无监督和有监督的机器学习方法,使用自然语言处理技术基于创建者、内容和上下文的特征,识别和解释社交媒体中的虚假新闻,并通过数据流处理提供实时的早期检测、隔离和解释,从而提高社交媒体内容的质量和可信度。
May, 2024
本文提出了一个对抗性基准测试,旨在测试虚假新闻检测器推理现实世界事实的能力,使用 BERT 分类器 fine-tuned 在 LIAR arXiv:arch-ive/1705648 和 Kaggle Fake-News 数据集上,结果显示这两种模型在处理组合语义、词汇关系和修饰符等方面的意思变化上存在失败的情况。这表明虚假新闻检测器需要与其他事实检查方法一起使用。
Jan, 2022
本文探讨了现有的假新闻检测方法存在的问题,并提出加入事实核查与语言分析相结合的方法,以应对新闻篡改攻击和真实新闻被误判的情况。作者提出采用众包知识图谱解决新闻事件事实搜集的问题。
Jan, 2019
为了解决当今科技驱动的世界中虚假新闻(尤其是在选举等关键事件期间)的快速传播给信息的完整性带来的日益威胁,我们引入了 FakeWatch,一个全面的框架,旨在有效检测虚假新闻。通过利用一个新的精选北美选举相关新闻文章的数据集,我们构建了强大的分类模型。我们的框架融合了传统机器学习技术和尖端语言模型,以有效区分虚假新闻。我们的总体目标是为研究社区提供适应不断演变的误导信息领域的可调整和精确的分类模型。对我们的数据集上的虚假新闻分类器的定量评估表明,虽然最先进的语言模型略优于传统机器学习模型,由于其准确性和计算效率的平衡,传统模型仍然具有竞争力。此外,定性分析揭示了虚假新闻文章中的模式。这项研究为未来旨在打击误导信息(尤其是有关选举过程的信息)的努力奠定了基础。我们公开提供了我们的标记数据和模型以供使用和可复制性检验。
Mar, 2024
使用机器学习算法分析媒体新闻的语言特征,以区分真假新闻,主要解决神经假新闻生成、机器生成的标题、文本和图像标题之间的语义矛盾等问题。同时提出应用特征集和类别、特征之间的相关性计算相关属性评估指标和计算属性变量的协方差指标来模拟这些问题。其中独特、负面、积极和基数数字特征在度量中得分高,能够提供高的 AUC 和 F1-score。
Nov, 2022
通过使用追求解释性、泛化性和可控性的认知系统和决策系统的双系统框架,我们提出了一种可信的假新闻检测方法,该方法使用人类专业知识生成逻辑谓词来指导大型语言模型生成可读的逻辑原子,并通过推导可泛化的逻辑规则来对这些原子进行聚合,从而实现对不同领域的输入新闻真实性进行识别和提升决策过程的透明度。
Feb, 2024