Oct, 2022
跨语言零样本条件下多语言语言模型对现实世界噪声的鲁棒化:基于鲁棒对比度预训练的方法
Robustification of Multilingual Language Models to Real-world Noise with
Robust Contrastive Pretraining
TL;DR提出一种预处理方法(Robust Contrastive Pretraining),将数据扩增和对比损失项结合,以提高多语言分类任务中现有预训练模型(Robust Contrative Pretraining,RCP)的稳健性,并在两个句子水平和两个序列标注多语言分类任务中取得了显著提高。