IJCAIJul, 2020
非自回归神经机器翻译的任务级课程学习
Task-Level Curriculum Learning for Non-Autoregressive Neural Machine Translation
Jinglin Liu, Yi Ren, Xu Tan, Chen Zhang, Tao Qin...
TL;DR本研究提出了一种训练曲线,通过任务级别的课程学习(TCL-NAT)将模型训练从更简单的自回归翻译(AT)任务平滑转移到困难的非自回归翻译(NAT)任务,其中引入了中间任务 - 半自回归翻译(SAT),可以通过调整参数 k,平衡翻译速度和准确性,达到在四个数据集上显著提高翻译准确性的效果。