BriefGPT.xyz
大模型
Ask
alpha
关键词
distillation-based approach
搜索结果 - 1
ICLR
多语言神经机器翻译与知识蒸馏
本文提出一种基于蒸馏的方法来提高多语言机器翻译的准确性,并在数据集上进行了实验,结果表明该方法可以通过训练单独的模型(即老师)来训练多语言模型,这使得一个模型即可具备处理多达 44 种不同语言的能力(且其准确性与单独模型相当甚至更优)。
PDF
5 years ago
Prev
Next