通过情感反应生成对抗错误信息
通过提供准确可信的解释和参考资料,以及纠正多模态信息,MUSE 扩展了大型语言模型的能力,表明了使用 LLMs 有效和高效地应对现实世界的错误信息的潜力。
Mar, 2024
本论文旨在通过建立一个基于强化学习的生成式文本模型 MisinfoCorrect 来有效地纠正不实信息,在社交媒体和众包数据的基础上,创造了两个新的数据集,并通过定量和定性评估证明了该模型可以生成高质量的反驳回复,提高了礼貌性,事实性和反驳态度。
Mar, 2023
社交媒体兴起以来,越来越多的网民在线上分享和阅读帖子和新闻。然而,泛滥于互联网的大量错误信息(例如虚假新闻和谣言)会对人们的生活产生负面影响,这引发了对谣言和虚假新闻检测的热门研究课题。网民在社交媒体帖子和新闻中表达的情绪和情感是帮助区分虚假新闻和真实新闻,以及理解谣言传播的重要因素。本文全面回顾基于情绪的误信息检测方法。我们首先解释情绪与误信息之间的紧密联系。接着,我们详细分析了多种基于情绪、情感和立场特征的误信息检测方法,描述它们的优势和劣势。最后,我们讨论了基于大型语言模型的基于情绪的误信息检测面临的一些挑战,并提出了未来的研究方向,包括数据收集(多平台、多语言)、标注、基准测试、多模态以及可解释性。
Nov, 2023
使用半监督学习框架来解决极度类别不平衡的问题,并使用实际数据扩充少数类别,该方法在处理社交媒体中极不平衡的发布单元时比 SMOTE、ADASYN、GAN 等其他方法效果显著提高,尤其在相关的 Covid 数据上初步测试表明有效性。
Apr, 2023
本文通过分析 Facebook 上代表性的 far-right Hindutva pages 数据集来解决 Social Media Platforms 上 toxic speech 和 hateful content 的问题,使用 state-of-the-art 的 XLM-T multilingual transformer-based language models 对文本内容进行情感和 hate speech 分析,并讨论预训练语言模型的性能和局限性。
Jan, 2023
通过对 fact-checkers 的语言特征进行分析和提出建议,使用基于深度学习的文本生成框架来生成可以提高辨别信息真假的参与度的回复,提高了辨别真假信息的准确度。
Oct, 2019
利用会话式引导工程的大型语言模型来对抗数字虚假信息,通过扩展 RumourEval 任务的研究努力,从事推特数据集的真实性预测和立场分类,以 AI 社会公益为主要目标。
Apr, 2024
提出了一种使用外部来源进行全自动事实核查的通用框架,该框架利用深度神经网络和 LSTM 文本编码结合任务特定的嵌入来判断声称的真实性,并将来自 Web 的相关文本片段融合其中,考虑其来源可靠性,在两个任务和数据集上均表现不错。
Oct, 2017
研究发现现有的 NLP 辟谣任务定义无法像专业辟谣人员那样驳斥绝大多数谣言,且现有数据集不满足辟谣的要求。同时,研究表明现有的大规模事实核查数据集的模型依赖于泄露的信息,因此无法在真实世界的情况下使用。因此,当前的 NLP 辟谣无法在真实世界的情况下有效应对虚假信息。
Oct, 2022
通过使用大型语言模型(LLMs)生成语言的最新成果,本文提出了一种创建辨别虚假信息的银标准真实数据集的方法,通过在受信任的新闻文章上构建 LLMs 的提示,自动生成该文章的摘要版本,并针对性地生成具体类型的事实错误,如错误数量、错误归属等,以研究此数据集的实用性,并进行了一系列的实验,训练了一系列用于辨别虚假信息的监督模型。
Jan, 2024