ACLMay, 2023
神经机器翻译知识蒸馏理解与改进探究
Towards Understanding and Improving Knowledge Distillation for Neural Machine Translation
Songming Zhang, Yunlong Liang, Shuaibo Wang, Wenjuan Han, Jian Liu...
TL;DR本文研究神经机器翻译中知识蒸馏的技术,发现知识来源于教师的 top-1 预测,进一步提出一种名为 TIE-KD 的方法用于增强知识蒸馏,包含了层次排序损失和迭代蒸馏等措施,实验证明 TIE-KD 优于基准模型,具有更高的潜力和泛化性能。