BriefGPT.xyz
Ask
alpha
关键词
nearest neighbor knowledge distillation
搜索结果 - 1
ACL
神经机器翻译最近邻知识蒸馏
本文提出一种改进机器翻译模型的方法,即将 NN search 前置,并通过最近邻知识蒸馏(NN-KD)训练基本 NMT 模型直接学习 NN 知识,可以更好地解决机器翻译中的过度纠正问题,并在保持训练和解码速度不变的情况下,实现了比 NN-M
→
PDF
2 years ago
Prev
Next