Dec, 2022

对抗标签噪声的鲁棒学习中的逻辑回归剪辑

TL;DR本文提出 LogitClip 方法,在 logit 级别上进行损失约束,从而提高 CE 损失的鲁棒性,并减轻对带噪标签的样本过拟合问题,通过理论分析证明了 LogitClip 方法的噪声容忍能力和对通用鲁棒性的提升,实验结果表明,LogitClip 不仅在 CE 损失的噪声鲁棒性方面有显著改进,还广泛提高了流行的鲁棒性损失的泛化性能。