半监督健康科学新闻稿夸张性检测
使用大型语言模型检测科学报道中的虚假信息,针对缺乏明确标签的情况,提出了多种基于大型语言模型的基准架构和提示方法,包括零样本、少样本和连贯思维提示等。
Feb, 2024
此研究旨在解决在线新闻传播中存在的虚假信息扩散的问题,使用 SemEval-2023 Task 3 来分析和验证新闻文章中的写作技巧,以影响读者的观点,研究结果表明我们的系统在 27 个测试中位列前三。
May, 2023
本文聚焦于自动识别在线新闻中的虚假内容,首先介绍了用于虚假新闻检测的新颖数据集,描述了收集、注释和验证过程,并提供诸多在区分真实和虚假新闻语言差异方面的探索性分析。其次,本文开展了一系列学习实验以构建准确的虚假新闻检测器,并比较了手动和自动识别虚假新闻的结果。
Aug, 2017
本文提出了三种基于多模态 transformer 的假新闻检测模型,并通过深入分析操纵数据的方法来探索这些模型在社交媒体上实际使用情况下的性能。研究发现,这些系统在面临被操纵的数据时会出现显著性能下降。为了减少偏差并改善模型的推广能力,本文建议使用数据增强技术对社交媒体上的假新闻检测进行更有意义的实验。所提出的数据增强技术使得模型的泛化能力得到了提高,并获得了最先进的效果。
May, 2023
通过研究机器学习中的数据泄露和出版偏见等因素,本研究提出了一种新颖的随机模型来估计真实准确性,并纠正了过度乐观的诊断结果,从而提供了更真实的机器学习性能评估。
May, 2024
本文提出了一种基于多任务深度学习训练的 Transformer 架构,使用六个与偏见相关的数据集来解决媒体偏见检测问题,取得了较好的效果。
Nov, 2022
通过扩充大语言模型 (ChatGPT) 的事实核查,重新审视了由人类记者验证的现有虚假新闻数据集,并将扩充的虚假新闻数据集命名为 ChatGPT-FC。我们在评估新闻主题可信度、新闻创作者可信度、时态敏感度和政治框架方面定量分析了人类记者和 LLM 之间的差异和相似之处。我们的研究结果强调了 LLM 作为初步筛选方法的潜力,为减轻人类记者的固有偏见并增强虚假新闻检测提供了有希望的途径。
Dec, 2023
本文研究了自动检测不可靠新闻的问题和如何创建更可靠的数据集,发现大规模新闻数据集存在选择性偏差和混淆因素,导致模型的表现不稳定,提出了创建更可靠的数据集的建议。
Apr, 2021
社交媒体的兴起使得虚假新闻的广泛传播成为可能,而虚假新闻被故意发布以传播错误信息和影响人们的信仰。本文介绍了一种新的方法,通过人机交互的方式改善自动化系统对社交媒体的表示质量,在真实事件中实验表明,在少量人机交互之后,系统检测新闻可信度的性能得到了提升。
Sep, 2023
社交媒体的迅速增长导致虚假新闻泛滥,因此自动检测和验证虚假信息的研究变得尤为重要。本研究介绍了 Factify 2 任务的结果,提供了一个多模态事实验证和讽刺新闻数据集,并使用基于多模态关系将社交媒体索求与支持文件进行比较,最终得到 81.82% 的最高 F1 分数。
Jul, 2023