元启发式优化的检索增强生成
我们提出了一种迭代检索 - 生成的协作框架,该框架可以利用参数化和非参数化知识,帮助找到正确的推理路径,并显著提高大型语言模型的推理能力。实验结果显示我们的方法优于之前的基线模型,在单跳和多跳问答任务上取得了显著的改进。
Oct, 2023
本研究提出一种名为 Iter-RetGen 的方法,通过检索和生成的迭代协同作用,以全面地处理检索到的知识并在不受结构约束的情况下实现灵活的生成,而这可以在多跳问答、事实验证和常识推理等任务中实现可比甚至优于现有检索辅助基准的效果,同时减少检索和生成的开销,从而提高了性能。
May, 2023
我们提出了一种新颖的方法,通过从一系列支持文件中选择上下文相关的短语来生成文本,并使用语言学启发式方法初始化训练阐述,并通过迭代的自我增强来加强训练阐述。实验证明,与标准语言模型相比,我们的模型在各种知识密集型任务上不仅表现出色,而且在开放式文本生成中表现出更高的生成质量。我们的模型在 OpenbookQA 上将准确性从 23.47% 提高到 36.27%,在开放式文本生成中的 MAUVE 得分从 42.61% 提高到 81.58%。值得注意的是,我们的模型在几个检索增强基准中实现了最佳性能和最低延迟。总之,我们断言检索是更准确的生成,并希望我们的工作能够鼓励进一步研究这一新的转变。
Feb, 2024
本文综述了检索多模态知识以辅助和增强生成模型的方法,并提供了对从外部来源(包括图像、代码、表格、图形和音频)检索根据的关注点的深入探讨,包括事实性、推理、可解释性和鲁棒性。
Mar, 2023
对话人工智能存在生成不正确信息或产生幻觉的问题,本研究提出了一种结合了符合预测和全局测试的统计保证的检索增强问答系统,并使用贝叶斯优化来选择全局测试的超参数,通过在自然问题数据集上验证结果表明该方法能够提供所需的覆盖保证并最小化平均预测集大小。
Jul, 2023
本文提出了一个名为 Selfmem 的框架,结合检索增强生成模型的原始和对偶问题,采用检索增强生成器自身进行迭代,以生成无限的记忆池,并使用记忆选择器来挑选下一代回合的记忆。在多个文本生成场景中进行了广泛的实验,并取得了 JRC-Acquis(四个方向),XSum(50.3 ROUGE-1)和 BigPatent(62.9 ROUGE-1)的最新成果。
May, 2023