Sep, 2023

通过学习上下文和回应之间的模式信息来推动开放域对话生成

TL;DR本文介绍了一种基于预训练语言模型(GPT-2)的开放域对话模型,通过学习训练样本中上下文和回复之间的隐式模式信息,改进了生成回复的质量。我们提出了改进的预训练模型的定期抽样方法,并设计了一种回复感知机制,使生成的回复更加多样化和接近人类回复。通过在 Persona-Chat 和 DailyDialog 数据集上对所提出的模型(RAD)进行评估,实验结果表明我们的模型在大多数自动和手动评估指标上优于基线模型。