Sep, 2024

当上下文主导,而参数记忆随之而来:在大语言模型中的研究

TL;DR本研究针对大型语言模型(LLMs)在知识一致的情境中,如何在本地上下文与全局参数之间分配知识的问题进行了深入分析。我们提出了一种新数据集WikiAtomic,并通过系统性地变化上下文大小,发现模型对上下文的依赖约占70%,而参数知识则约占30%,且随着上下文的增加,模型的幻觉现象减少。这一发现强调了上下文组织的有效性及其在模型鲁棒性中的潜在影响。