Oct, 2022

基于知识的对话生成:对抗性多参照学习中不存在标准答案

TL;DR提出一种多参考知识对话模型(KGC),为了提高知识选择与生成的多样性,建立了一个多重参考的KGC数据集,并提出了一系列测量现有KGC模型效力的指标,使用基于跨度的变分模型并以改进的证据下界目标进行优化,以学习一对多泛化关系,该方法在机器和人工评估中均表现出良好的效力。