ACLMar, 2022
叙事预训练:零样本对话理解
Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue Comprehension
Chao Zhao, Wenlin Yao, Dian Yu, Kaiqiang Song, Dong Yu...
TL;DR本文提出了一种新的叙述引导的预训练策略,以学习从对话输入中叙述关键信息的能力,针对当前方法缺失的对话 - 叙述并行语料库,本文利用自动对齐的电影字幕和简介构建了一个这样的语料库,在此基础上,用一个 BART 模型进行预训练,并在四个需要理解的基于对话的任务上评估其性能。实验结果表明,本文所提出的方法不仅在零 - shot 性能上表现出了优越性,而且展示了更强的细粒度的对话理解能力。