Apr, 2022
为什么不使用所有语言?少样本跨语言迁移中的梯度优化混合训练
Por Qué Não Utiliser Alla Språk? Mixed Training with Gradient
Optimization in Few-Shot Cross-Lingual Transfer
TL;DR本文提出一种混合训练方法,使用随机梯度削减策略对源语言和目标语言的数据进行联合学习,避免了过多的针对特定语言的模型,并证明了该方法在跨多种语言下比传统的few-shot cross-lingual transfer learning方法表现更好且不需要选择目标语言的开发集。