ACLApr, 2020

预训练转换器提高超出分布鲁棒性

TL;DR本文通过构建具有现实分布变化的新的鲁棒性基准,系统地测量了七个 NLP 数据集的预训练 Transformers 的 OOD 泛化能力。研究结果表明,Pretrained Transformers 的性能下降显著较小,在检测异常或 OOD 示例方面更加有效,同时发现更多样化的预训练数据可以增强模型的鲁棒性。