增加逻辑回归边缘的一对多损失切换以提高对抗性鲁棒性
基于异常值健壮的对抗训练(ORAT)是在传统健壮学习方法和最近的对抗训练方法的基础上开发的,以同时处理低质量训练数据和推理时的敌对攻击,并在三个基准数据集上展示了其有效性和鲁棒性。
Sep, 2023
通过研究对抗训练提高分类器鲁棒性的机制,本研究表明这些机制可以有效地通过简单的正则化方法(包括标签平滑和对数挤压)及高斯噪声注入来模仿,并且在不使用对抗性示例的情况下,我们能够达到强大的对抗性鲁棒性 -- 通常超过对抗性训练所能达到的水平。
Oct, 2019
本文研究深度学习中的过拟合现象,并通过分析来自训练数据集和测试数据集的逻辑回归分布之间的变化来解释其在神经网络上的影响。作者针对深度学习中的图像分割任务,提出了针对少量数据样本的正则化模型,模仿少量数据情况下在测试集中出现的数据分布,用于减轻这种分布对模型性能的影响,实验结果证明该方法显著提高了模型在二进制分割图像任务中的性能。
Jul, 2019
以模型复杂性为视角解决对抗训练中标准泛化性能的下降问题,通过使用 Logit-Oriented Adversarial Training (LOAT) 提出了一种新的正则化框架,可以在几乎不增加计算开销的情况下平衡鲁棒性与准确性,提高对抗性训练算法的性能。
Mar, 2024
本文提出了基于统计学检测方法的分类器适应方法,提高了检测性能;并且提出了 Logit Mimicry Attack 方法生成对抗样本,通过该方法可以避开统计学检测和分类器方法;最后,通过该文献,可以证明对抗样本的检测,统计学检测和分类器检测都不具备鲁棒性。
Jul, 2019
时间序列分类是各个领域中的一个关键任务,深度神经模型在时间序列分类任务中展现出了卓越的性能。然而,这些模型容易受到对抗性攻击的影响,我们提出了一种名为 SWAP 的全新攻击方法,该方法能够提高次优预测的置信度,并通过最小化 Kullback-Leibler 散度来实现。实验证明,SWAP 方法取得了最先进的性能,攻击成功率超过 50%,相比现有方法提高了 18%。
Sep, 2023
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
本文旨在提高有针对性攻击中对抗样本的可转移性,通过在损失和特征方面提出两种不同的改进方法。首先,我们引入了一种新的规范化对数准确度校准方法,它同时考虑了对数边界和对数的标准差。其次,我们进一步研究了截断特征混合方法来减小源训练模型的影响,从而实现了额外的改进。在 ImageNet-Compatible 和 CIFAR-10 数据集上进行的实验证明了我们提出的两个组件的个别和相互优势,在黑盒有针对性攻击中取得了领先于现有方法的大幅度改进。
May, 2024
本研究提出了一种基于概率紧凑性的损失函数,称为 Probabilistically Compact (PC) 损失函数,采用 logit 限制来提高卷积神经网络对抗攻击的鲁棒性,减少误分的风险。该方法在大规模数据集上进行了白盒和黑盒攻击的实验,证明了该方法的有效性。
Dec, 2020
本研究通过引入已训练的干净模型的分类边界来指导对抗训练,约束对抗性模型的 logits 与自然数据下的干净模型的 logits 相似,从而提高了模型的鲁棒性和自然数据的准确性。实验证明,该方法在 CIFAR-10、CIFAR-100 和 Tiny ImageNet 上具有新的最先进的鲁棒性,无需额外的真实或合成数据。
Nov, 2020