ConspEmoLLM:情感为基础的大规模语言模型用于阴谋理论检测
基于指令数据微调各种 LLMs 的 EmoLLMs 系列兼具情感分类和回归任务的综合情感分析模型,在各类任务中超越了现有的 LLMs、ChatGPT 和 GPT-4,具有与 ChatGPT 和 GPT-4 相当的情感分析自动化标注工具的广泛应用能力。
Jan, 2024
该论文提出了 RAEmoLLM 框架,通过应用情感感知 LLM 构建一个含有情感嵌入的检索数据库,以实现跨领域的虚假信息检测。实验结果显示,RAEmoLLM 较零样本方法在三个数据集上均获得显著提高,其中最高分别提高了 20.69%、23.94% 和 39.11%。
Jun, 2024
大型语言模型在虚假信息检测任务中的性能研究显示,多样的启发式方式和多个实例学习策略可以提高大型语言模型在文本和传播结构理解方面的检测性能,突出了大型语言模型检测虚假信息的潜在能力。
Nov, 2023
使用 BERT-like 模型和 prompt-based 方法(Llama2、GPT-3.5 和 GPT-4)来检测德语 Telegram 消息中的阴谋论,结果表明两种方法都是有效的,最佳模型是 GPT-4,具有自定义的阴谋论定义。
Apr, 2024
在大语言模型 (LLMs) 时代,我们发现许多现有的假新闻检测器存在显著偏见,更容易将 LLMs 生成的内容标记为假新闻,而常常误将人类撰写的假新闻分类为真实。为了解决这个问题,我们引入了一种对抗训练与 LLMs 重写的真实新闻相结合的缓解策略,从而在人类和 LLMs 生成的新闻的检测准确性方面取得了显著的改进。为了进一步推动该领域的研究,我们发布了两个全面的数据集 “GossipCop++” 和 “PolitiFact++”,将经人工验证的文章与 LLMs 生成的假新闻和真实新闻相结合。
Sep, 2023
利用大型语言模型(LLMs)进行社交媒体谣言检测的研究,提出了一种 LLM - 驱动的谣言检测方法(LeRuD),通过设计提示教给 LLMs 在新闻和评论中进行推理,并将整个传播信息分割为传播链以减轻 LLMs 的负担,通过在 Twitter 和微博数据集上的实验,LeRuD 在谣言检测方面表现出色,超过了几种最先进的模型,并且通过应用 LLMs,LeRuD 无需训练数据,在少量或零样本情景中显示出更有前景的谣言检测能力。
Feb, 2024
大语言模型在辨别新闻文章真实性方面,面临真实性和错误漫游的挑战,本研究提出了 DELL 来结合 LLMs,通过生成新闻反应、生成解释和合并专家等三个关键阶段,提高了误报检测的准确性。
Feb, 2024
社交媒体兴起以来,越来越多的网民在线上分享和阅读帖子和新闻。然而,泛滥于互联网的大量错误信息(例如虚假新闻和谣言)会对人们的生活产生负面影响,这引发了对谣言和虚假新闻检测的热门研究课题。网民在社交媒体帖子和新闻中表达的情绪和情感是帮助区分虚假新闻和真实新闻,以及理解谣言传播的重要因素。本文全面回顾基于情绪的误信息检测方法。我们首先解释情绪与误信息之间的紧密联系。接着,我们详细分析了多种基于情绪、情感和立场特征的误信息检测方法,描述它们的优势和劣势。最后,我们讨论了基于大型语言模型的基于情绪的误信息检测面临的一些挑战,并提出了未来的研究方向,包括数据收集(多平台、多语言)、标注、基准测试、多模态以及可解释性。
Nov, 2023
研究通过对比分析,评估了不同大型和小型 LLMs 在识别和过滤假新闻内容方面的有效性,并利用 Kaggle 的假新闻数据集样本探讨了当前 LLMs 在假新闻检测方面的能力和局限性,同时讨论了提高 AI 驱动信息完整性对开发人员和决策者的影响。
Jun, 2024
大型语言模型(LLMs)的能力不断增长,但也引发了对其潜在滥用创建个性化、令人信服的错误信息和宣传的担忧。为了了解 LLMs 的说服能力,我们在 Durmus&Cardie(2018)的数据集上进行了研究,提出了衡量 LLMs 能力的任务,包括区分强弱论点、根据信念和人口特征预测立场、以及根据个人特征确定论点的吸引力。我们发现 LLMs 在这些任务中能与人类持平,并且合并不同 LLMs 的预测可以显著提高性能,甚至超过人类表现。本文发布的数据和代码为持续评估和监测快速发展的 LLMs 的潜在影响和能力做出了关键而持续的贡献。
Mar, 2024