对抗性扰动下的降噪字典学习
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017
本文提出了一种新颖的净化方法,即导向扩散模型净化(GDMP),旨在帮助保护深度神经网络分类器免受对抗攻击的影响。在各种数据集上进行的广泛实验表明,所提出的 GDMP 将由对抗攻击引起的扰动降至浅层范围,从而显着提高了分类的正确性,并提高了 5%的鲁棒性。
May, 2022
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
本文介绍了基于稀疏表示的中心化字典学习(CDL)方法,并研究了其在天文图像去噪方面的表现,证明 CDL 方法在天文图像去噪方面胜过小波或传统字典学习去噪技术,并比较了这些不同算法对去噪图像光度的影响。
Apr, 2013
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
我们研究了最初用于图像生成的去噪扩散模型(DDM)的表示学习能力。我们的研究目的是逐步分解 DDM,将其转化为经典的去噪自编码器(DAE)。我们观察到现代 DDM 的很少组件对于学习良好的表示是至关重要的,而许多其他组件则不是必要的。我们的研究最终提出了一种高度简化并在很大程度上类似于经典 DAE 的方法。我们希望我们的研究能够在现代自监督学习领域重新激发对经典方法家族的兴趣。
Jan, 2024
本研究提出了一种基于局部梯度平滑(LGS)的防御方法来对抗深度神经网络(DNNs)对于局部及可见对抗干扰的敏感性,并在 ImageNet 数据集上与数字水印,JPEG 压缩,TVM 和特征扩张等防御方法相比展示了 LGS 的有效性和鲁棒性。
Jul, 2018
扩散基净化(DBP)是一种有希望对抗恶意攻击的方法,通过确定梯度来检验 DBP 的稳健性,研究表明随机性是 DBP 的主要稳健因素,提出了 Adversarial Denoising Diffusion Training(ADDT)来提高 DBP 模型的稳健性。
Apr, 2024