利用精调的大型语言模型进行虚假信息和假新闻检测的分析
Llama 2 大型语言模型的精细调整为金融新闻的多任务分析提供了可能性,根据 PEFT/LoRA 的方法进行了精细调整,研究中对以下任务进行了调整:从金融市场角度分析文本,突出文本的主要观点,总结文本和提取带有适当情感的命名实体。研究结果表明,经过精细调整的 Llama 2 模型可以以特定的响应结构执行多任务金融新闻分析,其中部分响应可以是结构化文本,另一部分数据可以使用 JSON 格式进行进一步处理。提取出的命名实体情感可以被视为具有定量目标变量的监督式机器学习模型中的预测特征。
Aug, 2023
在大语言模型 (LLMs) 时代,我们发现许多现有的假新闻检测器存在显著偏见,更容易将 LLMs 生成的内容标记为假新闻,而常常误将人类撰写的假新闻分类为真实。为了解决这个问题,我们引入了一种对抗训练与 LLMs 重写的真实新闻相结合的缓解策略,从而在人类和 LLMs 生成的新闻的检测准确性方面取得了显著的改进。为了进一步推动该领域的研究,我们发布了两个全面的数据集 “GossipCop++” 和 “PolitiFact++”,将经人工验证的文章与 LLMs 生成的假新闻和真实新闻相结合。
Sep, 2023
研究通过对比分析,评估了不同大型和小型 LLMs 在识别和过滤假新闻内容方面的有效性,并利用 Kaggle 的假新闻数据集样本探讨了当前 LLMs 在假新闻检测方面的能力和局限性,同时讨论了提高 AI 驱动信息完整性对开发人员和决策者的影响。
Jun, 2024
本文研究了大型语言模型时代中的假新闻检测问题,发现仅训练于人工编写文章的检测器在检测机器生成的假新闻方面表现良好,但反之不成立。此外,由于检测器对机器生成的文本存在偏见,需要在训练集中使用比测试集中较低比例的机器生成新闻。基于我们的发现,我们提供了一个实用的策略来开发健壮的假新闻检测器。
Nov, 2023
基于大型语言模型的虚假新闻检测研究发现,大型语言模型虽然能提供多元的合理解释,却无法像基于小语言模型的训练过程那样适当选择和结合解释来得出结论。因此,当前的大型语言模型不能替代小型语言模型在虚假新闻检测中的作用,但可以作为小型语言模型的顾问,提供多元的启示性解释。为了实现这一点,作者设计了自适应启示指导网络(ARG)用于虚假新闻检测,在这个网络中,小型语言模型从大型语言模型的解释中选择性地获取新闻分析的见解。另外,作者还提出了一个消除解释的版本 ARG-D,用于成本敏感的情境,无需查询大型语言模型。实验证明,ARG 和 ARG-D 在两个真实数据集上的表现优于基于小型语言模型、大型语言模型以及小型和大型语言模型组合的三种基准方法。
Sep, 2023
使用大型语言模型检测科学报道中的虚假信息,针对缺乏明确标签的情况,提出了多种基于大型语言模型的基准架构和提示方法,包括零样本、少样本和连贯思维提示等。
Feb, 2024
通过多轮检索策略从网络源自动抽取关键证据进行主张验证的检索增强 LLMs 框架是第一种能自动地并有目的性地从网页信息中提取关键证据的框架,通过在三个现实世界数据集上进行全面的实验证明了该框架对现有方法的优越性。重要的是,我们的模型不仅提供准确的结论,还提供可读的解释,以提高结果的可解释性。
Mar, 2024
通过回答三个研究问题,本研究探讨了利用大型语言模型(LLMs)生成的谣言和虚假信息对目前存在的谣言检测技术的影响,以及通过使用 LLMs 作为强大的谣言防御手段以及针对这一威胁的新方法的可能性。
Sep, 2023
通过利用外部知识库的一致性或大模型的置信度,以及直接优化算法,我们在不需要人工标注的情况下,对语言模型进行微调,明显提高了生成候选项的正确性,并比对准确性进行了目标定向的 RLHF 和解码策略有显著改善。
Nov, 2023
大型语言模型(LLM)正在日益被用作 “内容农场” 模型(CFMs),用于生成可以通过真实新闻文章的合成文本。我们展示了只用 40K 份意大利新闻文章对大部分在英语上进行训练的 Llama(v1)进行微调就足以产生意大利本地人难以辨认为合成文本的新闻样本。我们研究了三个 LLM 和三种检测合成文本的方法(对数似然、DetectGPT 和监督分类),发现它们都比人类评比者表现更好,但在实际情况下都不实用(要求对令牌似然信息有访问权或大量 CFM 文本数据集)。我们还探索了创建代理 CFM 的可能性:在与真实 “内容农场” 使用的类似数据集上进行微调的 LLM。我们发现只需少量微调数据就能成功创建一个检测器,但我们需要知道使用了哪个基础 LLM,这是一个重大挑战。我们的结果表明,目前没有实际的方法来 “野外” 检测合成类似新闻的文本,而生成它们太容易。我们强调了对这个问题进行更多自然语言处理研究的紧迫性。
Jun, 2024