Nov, 2021

先理性再回应:知识注入对话模块化生成

TL;DR本文提出了一个模块化的知识转换模型(K2R)来将知识纳入对话体系,通过将这一问题分解为两个简单的步骤来解决对该问题的挑战。在详细实验中,我们发现这种模型在与知识相关的对话任务中幻觉较少,并且具有解释性和模块化方面的优势。