Nov, 2023

SCORE:自相矛盾推理评估框架

TL;DR大型语言模型在各种基于语言的任务中展示了出色的推理能力。然而,在强化下游任务性能的许多推理方法提出之后,仍然存在两个基本问题:推理是否真正支持预测,以及推理质量的可靠性如何。本文提出了一个名为 \textsc {SCORE} 的框架,用于分析大型语言模型的推理能力。具体而言,我们关注自相矛盾的推理,即推理与预测不一致的情况。我们发现,在涉及上下文信息和常识的推理任务中,大型语言模型经常自相矛盾。模型可能会错过证据或使用捷径,从而表现出自相矛盾的行为。我们还使用了一种名为 Point-of-View (POV) 的方法作为诊断工具,从多个角度生成推理以进行进一步分析。我们发现,尽管大型语言模型在单一视角设置中表现良好,但在多视角设置中无法稳定该行为。即使对于正确的预测,推理也可能杂乱不堪且不完整,大型语言模型很容易被引导偏离良好的推理。\textsc {SCORE} 的结果凸显了可信赖的推理所需的缺乏鲁棒性,以及进一步研究建立超越准确性度量的推理的最佳实践的紧迫性。