EMNLPNov, 2023

规模、检索增强与形式对语言模型事实一致性的影响

TL;DR大型语言模型(LLMs)在提供事实知识方面具有自然的界面,但它们的有用性受到其倾向于给出不一致答案的限制。本文识别不一致性的潜在原因,并评估两种缓解策略的效果:扩展和使用检索语料库增强 LM。我们在 LLaMA 和 Atlas 模型上的结果表明,这两种策略都能减少不一致性,而使用检索增强方法更加高效。我们进一步考虑和分离了 Atlas 的不同组件对一致性的贡献。对所有评估的 LMs 来说,我们发现语法形式和其他评估任务的产物会影响一致性。总体而言,我们的结果更好地理解了影响语言模型事实一致性的因素。