ACLJun, 2021

跨语言细调的一致性正则化

TL;DR本研究提出采用一致性正则化改进跨语言 fine-tuning 的方法,通过示例一致性正则化对子词采样、高斯噪声、代码切换和机器翻译四种数据增广方式的敏感性进行惩罚,并采用模型的一致性正则化方法对同一训练集上经过增广的两个版本的模型进行规范化。在 XTREME 基准测试中,实验结果表明,我们的方法显着提高了跨语言 fine-tuning 在各种任务中的性能,包括文本分类、问题回答和序列标注。