BriefGPT.xyz
Apr, 2016
面向低资源神经机器翻译的迁移学习
Transfer Learning for Low-Resource Neural Machine Translation
HTML
PDF
Barret Zoph, Deniz Yuret, Jonathan May, Kevin Knight
TL;DR
该研究提出了一种转移学习的方法,通过先训练一个高资源语言对以及将一些已学习的参数转移至低资源语言对,来初始化和约束训练,显著提高了Bleu分数,并将低资源机器翻译性能接近于强的基于语法的机器翻译系统,超过了其一个语言对的性能,并且用于重新评分可以进一步提高低资源机器翻译的表现。
Abstract
The
encoder-decoder
framework for
neural machine translation
(NMT) has been shown effective in large data scenarios, but is much less effective for
→