Sep, 2024

在对话问答中学习何时检索、何时重写及如何响应

TL;DR本研究针对对话问答中用户的上下文搜索意图不明确的问题,提出了一种新方法,使大型语言模型(LLMs)能够根据对话上下文判断何时进行信息检索。通过构建SELF-multi-RAG框架,该方法在检索相关段落和评估生成回答的质量方面表现优越,实验结果显示,其生成的回答比单轮变体提升约13%。