Nov, 2023

对大型语言模型作为知识密集型任务的合理化特征的刻画

TL;DR大型语言模型能够在缺乏任务特定监督的情况下生成流畅的文本,但其在具有知识密集型任务中提供有根据的解释的能力仍未得到充分探索。我们通过使用专家编写的几个样本,以少量样本的方式生成基于知识的解释来解决这一问题。通过研究发现,众包工作者更喜欢基于知识的解释,因为它们具有实际性、充分性和全面的反驳。虽然大型语言模型生成的解释更受欢迎,但需要进一步提高简明性和新颖性。另外,我们还展示了错误模型预测的解释如何削弱人类对大型语言模型生成的解释的信任。基于这些观察的动机,我们创建了一个两阶段的流程,在生成解释之前审查任务预测并消除潜在的错误决策,以实现可信赖的解释生成。