EMNLPOct, 2020

利用多个输入源的预训练语言模型进行对话生成

TL;DR本文使用预训练语言模型 GPT2,探讨了在条件来自多个输入源的对话生成任务中,如何使用适当的多重注意力信息融合方法以提高与对话历史相关性的一致性。