BriefGPT.xyz
Oct, 2020
明确对齐是否能够稳定提高多语言编码器性能?
Do Explicit Alignments Robustly Improve Multilingual Encoders?
HTML
PDF
Shijie Wu, Mark Dredze
TL;DR
本文提出了一种新的对比对齐目标函数,主要应用于OPUS数据集,分析了单语和多语种上的效果,证明此方法优于以前的工作,但整体上,这些方法无法通过更强大的评估框架来提高性能,而更好的基础模型可以获得更好的性能。
Abstract
multilingual bert
(mBERT),
xlm-roberta
(XLMR) and other unsupervised multilingual encoders can effectively learn cross-lingual representation. Explicit alignment objectives based on bitexts like Europarl or Multi
→