Oct, 2024
ImageNet-RIB基准:大规模预训练数据集并不保证微调后的鲁棒性
ImageNet-RIB Benchmark: Large Pre-Training Datasets Don't Guarantee
Robustness after Fine-Tuning
TL;DR本研究解决了大规模预训练模型在微调后对分布外样本鲁棒性不足的问题。提出了一个新的鲁棒微调基准ImageNet-RIB,通过在多个相关但不同的专门任务上评估模型鲁棒性。研究发现,尽管微调通常会降低模型的泛化性能,但使用EWC和LwF等持续学习方法时,鲁棒性仍可以维持,从而为更有效的微调策略提供了重要的见解。