通过可解释的 AI 实现智能虚假新闻检测
该研究提出了一种可解释和在线的分类方法,结合无监督和有监督的机器学习方法,使用自然语言处理技术基于创建者、内容和上下文的特征,识别和解释社交媒体中的虚假新闻,并通过数据流处理提供实时的早期检测、隔离和解释,从而提高社交媒体内容的质量和可信度。
May, 2024
本文聚焦于自动识别在线新闻中的虚假内容,首先介绍了用于虚假新闻检测的新颖数据集,描述了收集、注释和验证过程,并提供诸多在区分真实和虚假新闻语言差异方面的探索性分析。其次,本文开展了一系列学习实验以构建准确的虚假新闻检测器,并比较了手动和自动识别虚假新闻的结果。
Aug, 2017
本文探讨了现有的假新闻检测方法存在的问题,并提出加入事实核查与语言分析相结合的方法,以应对新闻篡改攻击和真实新闻被误判的情况。作者提出采用众包知识图谱解决新闻事件事实搜集的问题。
Jan, 2019
ExFake 是一个基于内容和上下文级信息的可解释的假新闻检测系统,它关注在线帖子的真实性分析,基于其内容、社交背景(例如在线用户的可信度和历史行为)以及来自可信实体(如事实核查网站和命名实体)的数据。与现有技术不同,该系统还采用了可解释的 AI 助手,帮助在线社交网络用户在面对任何可疑信息在社交网络上传播时发展良好的反应能力。系统还通过为 OSN 用户分配可信度评分来解决 OSN 用户的可信度问题,因为 OSN 用户是传播假新闻的主要罪魁祸首。对真实数据集的实验分析表明,ExFake 在假新闻检测方面显著优于其他基准方法。
Nov, 2023
使用机器学习和 BERT 模型作为工具,通过实时检测和解释性功能,辨别 COVID-19 相关的假新闻,为用户提供可理解的分类结果。
Oct, 2023
我们使用自然语言处理方法对 1876 条新闻数据进行预处理,通过训练模型将假新闻和真实新闻进行分类,最终通过 Naive Bayes 分类器得出 56% 的准确率和平均 32% 的 F1-macro 得分。
Sep, 2023