Sep, 2024
大型语言模型中上下文忠实性的研究:记忆强度和证据风格的作用
Investigating Context-Faithfulness in Large Language Models: The Roles
of Memory Strength and Evidence Style
TL;DR本研究针对大型语言模型(LLMs)在生成响应时的上下文忠实性进行调查,填补了此前研究的 gaps。我们提出了一种量化 LLM 记忆强度的方法,并评估了证据呈现风格对其影响。研究发现,对于高记忆强度的问题,LLMs 更倾向于依赖内部记忆,而呈现不同风格的证据能显著提高其接受度。