Nov, 2023

从视觉语言基础模型中提取出超出分布鲁棒性

TL;DR通过知识蒸馏和数据增强的结合,提出了一个概念简单且轻量级的框架来提高视觉模型的鲁棒性。通过从预训练的基础模型进行蒸馏,我们得出了大型模型并不一定会成为更好的教师的推测并在分布外鲁棒性上取得了显著的改进。基于这一发现,我们提出了离散对抗蒸馏(DAD)的方法,利用鲁棒的教师生成对抗样本并使用 VQGAN 对其离散化,相比于标准的数据增强技术,生成的样本更具信息量。我们提供了一个理论框架来解释在具有数据增强的知识蒸馏中使用鲁棒的教师,并在不同的学生架构中展示了分布外鲁棒性和净精确度的显著改进。值得注意的是,我们的方法与类似技术相比只增加了较小的计算开销,并且可以轻松与其他数据增强技术结合以进一步提高性能。