ACLDec, 2021

基于统一知识表示的知识驱动对话生成

TL;DRPLUG 是一个预训练的语言模型,可以将异构知识源同化为一个统一的知识表示,从而提高知识引导型对话生成任务的泛化能力。该模型可以通过少量的训练样本实现不同下游知识引导型对话生成任务的泛化,且在零样本和少样本场景中表现显著优异。