RetGen: 一个检索和基于生成式文本生成的联合框架模型
本研究提出一种名为 Iter-RetGen 的方法,通过检索和生成的迭代协同作用,以全面地处理检索到的知识并在不受结构约束的情况下实现灵活的生成,而这可以在多跳问答、事实验证和常识推理等任务中实现可比甚至优于现有检索辅助基准的效果,同时减少检索和生成的开销,从而提高了性能。
May, 2023
我们提出了一种迭代检索 - 生成的协作框架,该框架可以利用参数化和非参数化知识,帮助找到正确的推理路径,并显著提高大型语言模型的推理能力。实验结果显示我们的方法优于之前的基线模型,在单跳和多跳问答任务上取得了显著的改进。
Oct, 2023
多跳问题回答 (MHQA) 任务对于大型语言模型 (LLMs) 来说是一项重大挑战。我们提出了一个新颖的生成然后固定 (GenGround) 框架,结合 LLMs 的参数化知识和外部文档,以解决多跳问题。通过在检索的文档中确认问题 - 答案对,我们的方法在四个数据集上展示了其优越性。
Jun, 2024
UniGen 是一种集成了生成式检索和问答功能的统一生成模型,通过使用大型语言模型,UniGen 采用一个共享编码器和两个不同的解码器,引入连接器来弥补查询输入和生成目标、文档标识符和答案之间的差距,并提出了一种迭代增强策略来通过生成的答案和检索的文档迭代地改进两个任务,在 MS MARCO 和 NQ 数据集上的广泛实验证明了 UniGen 在检索和问答任务中具有优越的性能。
Dec, 2023
本研究针对开放领域的文本生成任务提出一种使用后验引导检索的监督方法,能够更好地训练检索器、并能够在生成过程中更好地借助语料库语境信息进行生成。实验结果显示,相较于现有方法,文本检索成功率和生成器输出性能均有所提高。
Oct, 2021
本研究提出了一个检索增强的框架,使用特征描述性词语作为 dense retriever,从无标注的语料库中创建训练数据,以便在与基于大型自然语言生成模型相比节省 70% 的时间内,取得优于最强基线 4.3% 的成绩。
May, 2023
采用检索方法增强先前训练和微调,提出了一种新的框架用于增强常识生成,通过原型句子候选集,进一步使用可训练的句子检索器提高其性能,并在大规模 CommonGen 基准测试上实现了最新的最优结果。
May, 2021
Re2G 利用神经检索和排名策略结合 BART 序列生成器,在零 - shot 填槽、问答、事实核查和对话等任务中取得了相对增益为 9% 至 34% 的较大提升,是目前 KILT 排行榜上最先进的模型。
Jul, 2022
通过结合文档检索技术与大型语言模型 (LLM),我们提出了一种名为 Generator-Retriever-Generator (GRG) 的新方法,通过首先命令模型根据给定的问题生成上下文文档,然后使用双编码器网络从外部语料库中检索与问题相关的文档。将生成的和检索的文档传递给第二个 LLM 模型,生成最终的答案。通过结合文档检索和 LLM 生成,我们的方法解决了开放域问答的挑战,如生成信息丰富且上下文相关的答案。GRG 在 TriviaQA、NQ 和 WebQ 数据集上表现优于最先进的生成 - 阅读和检索 - 阅读流水线 (GENREAD 和 RFiD),性能至少提高了 + 5.2、+4.2 和 + 1.6。我们提供代码、数据集和检查点。
Jul, 2023