感知约束对抗攻击
通过使用 better calibrated to human perceptual judgments of image quality: the multiscale structural-similarity score (MS-SSIM) 进行训练而不是使用 pixel-wise loss (PL),提出了更好的 perceptually-optimized methods,已被证明在三种不同的自动编码器中表现更好,可以在图像分类和超分辨率成像方面为计算机视觉带来极大的潜力。
Nov, 2015
本研究系统地研究了感知相似度测量方法在面临不可察觉的对抗扰动时的鲁棒性,发现广泛采用的 LPIPS 指标也容易受到空间变换的对抗扰动的攻击,这表明对抗性样本的问题需要被深入探究。
May, 2023
通过引入感知度量标准,提出一种新的对抗攻击威胁模型,探究不同攻击样式之间的融合以及在此基础上进行对抗训练,从而实现在保持感知扭曲度不变的情况下取得更高的误分类率。
Feb, 2019
本研究证明了通过 $L_p$-norms 计算的输入相似性不仅不必要,而且是不充分的,对创造和防御对抗性样本都有影响。研究提出并探讨了替代相似性度量的策略,以刺激未来对该领域的研究。
Feb, 2018
本文提出一种名为 StrAttack 的结构化攻击模型,通过滑动掩模来提取关键的空间结构并具有更好的可解释性,该模型能够实现与现有攻击方法相同水平的 Lp 范数失真的强组稀疏化。实验证明 StrAttack 在 MNIST、CIFAR-10 和 ImageNet 数据集上的攻击效果是有效的。
Aug, 2018
本文分析了结构相似性指数(SSIM)的数学因素,并展示了其可能带来的非预期、未定义和非直观结果,因此使用 SSIM 作为图像质量指标可能导致错误结论,使用其作为深度学习的损失函数会带领神经网络训练向错误的方向。
Jun, 2020
该研究论文通过对基于 ViT 的特征提取器集合的先进感知相似度度量的鲁棒性进行敏感性分析,提出了名为 LipSim(Lipschitz 相似度度量)的可靠感知相似度度量方法,并通过一系列实验证明了 LipSim 在自然分数、认证分数和图像检索应用方面的性能。
Oct, 2023
通过对抗训练的深层特征,我们提出了一种新的强鲁棒学习感知图像块相似度(R-LPIPS)度量,通过全面的实验,我们证明了 R-LPIPS 相比于经典的 LPIPS 度量的优越性。
Jul, 2023
本文提出了一种新的基于 $l_p$-norms 的白盒对抗攻击方法,通过最小化扰动的大小来改变特定输入的类别,这个方法具有几何直观性,是一种性能优越的攻击方法,比专门针对一个 $l_p$-norm 的攻击方法具有更好的鲁棒性,并且可以解决梯度掩盖的问题。
Jul, 2019