端到端任务导向对话系统的检索生成对齐
通过整合知识检索和回答生成,本研究提出了一种检索生成器架构,利用检索器获取相关知识并生成系统回应,并通过生成器的反馈建立检索训练标签,通过对三个基准数据集的实验结果证明了方法在任务导向对话任务中的优越性能。
Oct, 2023
本文总结了我们在第九届对话系统技术挑战赛(DSTC 9)第一轨中的工作,我们提出了一种基于层次分类和序列嵌入的检索和生成方法,以实现针对任务导向对话中利用非结构化文本信息的回答生成。
Feb, 2021
我们提出了一种迭代检索 - 生成的协作框架,该框架可以利用参数化和非参数化知识,帮助找到正确的推理路径,并显著提高大型语言模型的推理能力。实验结果显示我们的方法优于之前的基线模型,在单跳和多跳问答任务上取得了显著的改进。
Oct, 2023
本文提出了一种新的框架,通过两个步骤查询知识库以提高生成的实体的一致性,第一步是使用 KB 检索组件检索最相关的 KB 行,以过滤 Seq2Seq 响应生成模型中的无关实体,第二步则进一步执行关注机制以解决相关的 KB 列。两种方法被提出来使训练可行,包括远程监控和 Gumbel-Softmax 技术。在两个公共数据集上进行的实验表明,我们的模型通过优于基准系统,在生成一致实体响应方面具有较好的效果。
Sep, 2019
本研究提出了基于 Transformer 的多轮对话响应生成模型,采用新颖的检索机制,结合 k 最近邻搜索,基于 Google 发布的 Taskmaster-1 数据集和真实的客户服务呼叫中心数据集进行评估,结果优于强基线模型。
May, 2021
我们提出了一种创新的端到端生成框架,用于多模态知识检索,通过利用大型语言模型 (LLMs) 作为虚拟知识库,使用对象感知的前缀调优技术来指导多粒度视觉学习,将多粒度视觉特征对齐到 LLM 的文本特征空间中,通过统一格式的指令数据构建模型训练,最后,我们提出了知识引导的生成策略,在解码步骤中施加先验约束,促进独特知识线索的生成,在三个基准测试中实验证明,与强基线方法相比,在所有评估指标上均取得了 3.0% 到 14.6% 的显著改进。
Jan, 2024
提出了一种新的训练方法,称为 G2R(Generative-to-Retrieval distillation),它通过将生成模型的知识注入检索模型中,从而保留检索模型的效率和大规模生成模型的会话能力,通过人工评估等广泛实验证明,使用 G2R 训练的检索型对话系统相比于基准检索模型显示出大幅提高的性能,同时显示出显着较低的推理延迟。
Aug, 2021
检索增强通过知识检索器和外部语料库提高下游模型的性能,成功应用于许多自然语言处理(NLP)任务,然而,现有的方法由于两个部分之间的不可微性而分别或异步训练检索器和下游模型,通常导致性能下降,与端到端联合训练相比。
Aug, 2023
通过使用大规模语言模型(LLMs),我们提出了一种名为 EKRG 的新型检索 - 生成框架,以极低的注释成本实现了企业知识库的问答。通过独特的指令调优方法和针对连贯性思维的微调方法,我们的框架在真实世界数据集上进行了广泛实验,并取得了显著的有效性。
Apr, 2024