Jun, 2024

对大型语言模型的 “隐式” 检索鲁棒性的评估

TL;DR通过评估各种大规模语言模型的 “隐式” 检索鲁棒性,我们发现混合了黄金和干扰性上下文进行微调显著提高了模型对检索不准确性的鲁棒性,同时仍然保持着在检索准确时提取正确答案的能力,这表明大规模语言模型可以通过仅从最终答案的监督中学习来隐式处理相关或无关的检索上下文,并且引入显式相关性判断的额外过程可能是不必要的并且会打断端到端的方法。