本研究发展了一种融合了两种不同方法的模型,能够检索出机器人回答,并将其作为附加语境进行精细调节,从而产生了更准确、更生动、更吸引人的回答。在最近的 CONVAI2 挑战评估中,该模型在人类评估中明显优于传统的检索和生成模型。
Aug, 2018
本文提出了一种混合神经对话模型,其结合了检索和生成方法的优点,并经实验证明其在 Twitter 和 Foursquare 数据上优于检索方法和生成方法(包括最近提出的基于知识的神经对话模型),这将为构建对话系统提供新的思路。
Apr, 2019
通过整合知识检索和回答生成,本研究提出了一种检索生成器架构,利用检索器获取相关知识并生成系统回应,并通过生成器的反馈建立检索训练标签,通过对三个基准数据集的实验结果证明了方法在任务导向对话任务中的优越性能。
Oct, 2023
利用最大边际似然方法训练感知检索器,通过利用生成回应的信号来提高生成回应的质量,并结合元知识指导生成器,以增强知识的利用能力。
本文提出了一个模块化的知识转换模型(K2R)来将知识纳入对话体系,通过将这一问题分解为两个简单的步骤来解决对该问题的挑战。在详细实验中,我们发现这种模型在与知识相关的对话任务中幻觉较少,并且具有解释性和模块化方面的优势。
Nov, 2021
为了实现对话系统的智能回答,文中设计了 DRKQG,该系统能够根据上下文信息,在没有提前准备知识库的情况下通过搜索引擎检索相关知识,并利用生成模块同时考虑上下文信息和检索知识生成回答,实验结果表明,该模块在自动评估和人工评估两方面取得了优异的成绩。
Jul, 2022
本文总结了我们在第九届对话系统技术挑战赛(DSTC 9)第一轨中的工作,我们提出了一种基于层次分类和序列嵌入的检索和生成方法,以实现针对任务导向对话中利用非结构化文本信息的回答生成。
Feb, 2021
提出了一种新的训练方法,称为 G2R(Generative-to-Retrieval distillation),它通过将生成模型的知识注入检索模型中,从而保留检索模型的效率和大规模生成模型的会话能力,通过人工评估等广泛实验证明,使用 G2R 训练的检索型对话系统相比于基准检索模型显示出大幅提高的性能,同时显示出显着较低的推理延迟。
Aug, 2021
我们提出了一种迭代检索 - 生成的协作框架,该框架可以利用参数化和非参数化知识,帮助找到正确的推理路径,并显著提高大型语言模型的推理能力。实验结果显示我们的方法优于之前的基线模型,在单跳和多跳问答任务上取得了显著的改进。
本文提供了一种 3 步程序来开发满足业务要求的对话模型,包括从历史对话中创建模板、使用神经网络建立对话上下文和业务约束,以及通过自我监督和受训者的方法优化模型,并进行实验验证并在人机交互的环境中应用于商业对话。
Oct, 2022