Jun, 2024

注意力指令:通过提示增强中间的注意力

TL;DR扩展大型语言模型的上下文窗口到 128k 个标记或更多,然而,语言模型仍然存在位置偏见和难以使用上下文的中间部分的问题,我们通过指导语言模型分配更多的关注于选定的上下文片段来研究 LLM 的相对位置感知性和缓解不均衡关注的可行性,我们对基于位置和索引的指令进行了多文档问答任务的全面研究,发现语言模型对上下文的相对位置没有意识,但它们展示了使用匹配索引调整关注于特定片段的能力,我们的分析深化了对 LLM 中位置偏见的理解,并提供了通过指导缓解此偏见的途径,从而使 LLM 在 RAG 应用中定位和利用检索文档中的相关信息。