基于自我指导的事实验证:解释性和泛化性挖掘
本文提出了基于解释的微调作为一种缓解大型语言模型依赖错误相关的新颖通用方法,并在人工构建的训练集上微调模型,使其更加强壮。与标准微调不同,我们不仅仅针对输入进行预测,还微调模型以生成支持其答案的自由文本解释。与标准微调相比,我们的方法在四个分类任务中使模型对伪线索具有明显更强的稳健性。此外,我们的方法同样适用于由模型生成的解释,暗示了其在更多数据集上的适用性。
May, 2023
通过利用外部知识库的一致性或大模型的置信度,以及直接优化算法,我们在不需要人工标注的情况下,对语言模型进行微调,明显提高了生成候选项的正确性,并比对准确性进行了目标定向的 RLHF 和解码策略有显著改善。
Nov, 2023
通过一系列实验,本文对可解释的事实核查进行了全面分析,重点研究了大型语言模型验证公共健康主张的能力,并提供解释或证明其真实性评估的能力。我们通过零 / 少提示和参数高效微调的形式,在各种开放和封闭源模型中,检验了它们在真实性预测和解释生成的孤立和联合任务中的效果。重要的是,我们采用了前期确认的自动度量标准和一套新标准的人工评估方式来进行双重评估。自动评估结果显示,在零提示场景下,GPT-4 是出类拔萃的表现者,但在少提示和参数高效微调的情况下,开放源模型不仅能够填补性能差距,而且在某些情况下超过了 GPT-4。人工评估显示出更多细微差异,并且指出了黄金解释可能存在的问题。
May, 2024
本文提出了一种利用语言模型的强大迁移学习能力来实现 fact-checking 任务的 few-shot learning 新方法,并通过实验证明了该方法在多个数据集上取得了非常不错的效果,并公开了两个 COVID-19 相关的事实检查数据集。
Mar, 2021
提出了一种利用事实一致性模型进行弱监督微调的方法,通过在生成的文本中添加引用并使用经过过滤的引文数据进行监督微调,以提高生成的内容的可验证性,并在 ALCE few-shot 引文基准上展示了超过上下文学习、纯监督微调和最先进方法的平均提高,同时在领域转移设置中表明所得到的引文生成能力在未见过的数据集上具有稳健性,并且在基线对比中具有最低的事实错误率。
Jun, 2024
通过使用 FACT-GPT 框架,我们介绍了一种自动化事实核查的方法,该方法利用大型语言模型 (LLMs) 的主张匹配阶段来识别新的社交媒体内容,无论是支持还是反驳之前被事实核查人员驳斥的主张。研究结果表明,我们的精细调节的 LLMs 在主张匹配任务中与更大型的预训练 LLMs 的性能相媲美,与人工标注结果密切一致。
Oct, 2023
该研究旨在通过减少事实冲突的幻觉来改善大型语言模型在推理时的生成。我们提出了一种自我认可框架,通过对多个样本回答进行细粒度的事实级别比较,相比之前的集成方法,我们的方法可以更好地减轻幻觉,尤其是对于长篇生成任务。我们的方法可以广泛受益于更小的和开源的语言模型,因为它主要进行简单的基于内容的比较。对传记的实验表明,我们的方法可以通过简单直观的提示有效地改善生成的客观性,适用于不同规模的语言模型。此外,对 TriviaQA 和 GSM8K 的全面分析展示了自我认可在更广泛应用中的潜力。
Feb, 2024