ACLMar, 2022

叙事预训练:零样本对话理解

TL;DR本文提出了一种新的叙述引导的预训练策略,以学习从对话输入中叙述关键信息的能力,针对当前方法缺失的对话 - 叙述并行语料库,本文利用自动对齐的电影字幕和简介构建了一个这样的语料库,在此基础上,用一个 BART 模型进行预训练,并在四个需要理解的基于对话的任务上评估其性能。实验结果表明,本文所提出的方法不仅在零 - shot 性能上表现出了优越性,而且展示了更强的细粒度的对话理解能力。