利用逻辑归一化缓解神经网络过度自信
本文旨在提高有针对性攻击中对抗样本的可转移性,通过在损失和特征方面提出两种不同的改进方法。首先,我们引入了一种新的规范化对数准确度校准方法,它同时考虑了对数边界和对数的标准差。其次,我们进一步研究了截断特征混合方法来减小源训练模型的影响,从而实现了额外的改进。在 ImageNet-Compatible 和 CIFAR-10 数据集上进行的实验证明了我们提出的两个组件的个别和相互优势,在黑盒有针对性攻击中取得了领先于现有方法的大幅度改进。
May, 2024
本文提出 LogitClip 方法,在 logit 级别上进行损失约束,从而提高 CE 损失的鲁棒性,并减轻对带噪标签的样本过拟合问题,通过理论分析证明了 LogitClip 方法的噪声容忍能力和对通用鲁棒性的提升,实验结果表明,LogitClip 不仅在 CE 损失的噪声鲁棒性方面有显著改进,还广泛提高了流行的鲁棒性损失的泛化性能。
Dec, 2022
我们提出了一种基于 logits 的方法 MaNo,通过对 logits 进行数据依赖的归一化来减少预测偏差,并将归一化 logits 的矩阵的 Lp 范数作为评估分数,我们在多个架构上进行了广泛的实证研究并证明 MaNo 在合成、自然或亚种群变化下实现了最先进的性能。
May, 2024
本文介绍了一种简单高效的后验置信度估计器 - $p$-NormSoftmax,它可以大幅提高预训练模型的选择性分类性能,并在实验中证明了此方法的有效性。
May, 2023
本文通过分析深度神经网络中的 logits 向量,提出一种网络分类器,并找到在使用未标准化的 logits 向量的情况下,随机初始化的网络的预测准确度更高。
Nov, 2022
研究发现,神经网络在训练分类数据集时,隐藏层特征的向量范数对于属于分布内的样本通常更高,而对于分布外的未知样本较低。解析神经网络中的中间层所隐藏的判别结构后,发现特征范数是网络层中的分类器隐藏的置信值,特征范数是一种类不可知的,可以检测各种判别模型下分布外样本的方法。然而传统的特征范数无法捕捉到隐藏层神经元的去激活倾向,可能会将分布内样本误识别为分布外实例。为了解决这个问题,提出了一种新的负向感知范数 (NAN),能够捕捉到隐藏层神经元的激活和去激活倾向。在 NAN 上进行了广泛的实验,证明了它的效果和与现有分布外检测器的兼容性,以及在无标签环境中的能力。
Oct, 2023
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
提出了一种基于特征屏蔽和对数平滑的后处理 OOD 检测方法,通过减小 OOD 数据的特征激活和增加 ID 与 OOD 数据之间的差距,缓解了神经网络对 OOD 数据的过度自信性预测,并在多个标准 OOD 检测基准上证明了该方法的有效性和兼容性,取得了新的最先进性能。
Oct, 2023
本文研究在神经网络中加入惩罚输出分布熵的正,则可以有效防止过拟合,并且可以通过最大熵的置信惩罚和标签平滑相连,取得了基于图像识别、语言建模、机器翻译和语音识别的 6 个数据集的最新成果。
Jan, 2017