EMNLPAug, 2021

自训练提高了面向任务的对话系统中 Few-shot 学习的预训练

TL;DR研究通过自我训练的方法,利用大量未标记的对话数据进一步改进预先训练的模型,以应对高昂的对话系统不同模块的标注成本问题,并证明该方法在少量标记数据可利用时可以一致提高现有预先训练模型的性能。