ICMLAug, 2020

基于形状偏好视角的鲁棒表征学习的信息性丢弃

TL;DR本文提出了轻量级模型不可知的方法 Informative Dropout (InfoDrop),通过自信息区分纹理和形状并采用去相关模型的 Dropout-like 算法来改善模型的可解释性和减少纹理偏见,在不同的场景下 (领域泛化、少样本分类、图像毁损和对抗扰动) 观察到增强的鲁棒性,这是改善统一模型天生鲁棒性的最早尝试之一,为可信赖的机器学习算法提供了新思路。