May, 2023
使用领域针对性数据增强来提升知识蒸馏的鲁棒性
Improving Robustness in Knowledge Distillation Using Domain-Targeted Data Augmentation
Joe Stacey, Marek Rei
TL;DR本文介绍了一种基于知识蒸馏的方法和使用语言模型创建任务特定无标签数据增强来提高模型在 NLI 任务中的性能,在 out-of-distribution 方面的表现超过以前的方法。通过 Distilled Minority Upsampling 来鲁棒性提高了 SNLI-hard 的表现。