该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
Dec, 2016
Defense-GAN 使用生成模型来抵御深度神经网络受到的对抗性攻击,并不需要修改分类器结构或者训练过程,可以适用于任何分类模型,并且不需要了解生成对抗性示例的过程。在不同的攻击方法下,实验证明 Defense-GAN 对抗性攻击防御策略具有一致的有效性,并可以提高现有的防御策略。
May, 2018
我们提出了一种新的技术,使用生成对抗网络使神经网络对抗性示例具有鲁棒性,通过交替训练分类器和生成器网络,我们成功地应用于 CIFAR 数据集的监督学习,实验结果表明我们的方法显著降低了网络的泛化误差。这是我们所知道的第一个使用 GAN 改进监督学习的方法。
May, 2017
该论文提出了一种新的对抗训练方法 ATDA,采用有限数量的目标域样本进行域自适应,以提高模型的泛化性,经过实证研究,该方法在标准基准数据集上的性能优于现有方法。同时,扩展到迭代攻击的对抗训练也取得了显著的进展。
Oct, 2018
本文介绍了对抗学习的方法能够通过一般化的视角更好地理解前面的方法,并提出了一个新的对抗判别域自适应框架,称为 ADDA,它将判别建模、解除权重共享和 GAN 损失结合在一起,优于竞争的域对抗方法,且在标准的跨域数字分类任务和一种新的更难的跨模态物体分类任务中超越了最新的无监督适应结果。
Feb, 2017
对付对抗性样本的一个新的检测方法:使用基于二进制分类器的技巧来区分干净样本和受到敌意扰动的样本,并通过生成方法来检测和分类对抗性样本。
文章提出了从基于扰动的对抗鲁棒性转向基于模型的鲁棒深度学习的新范式,并探讨了使用深度生成模型来学习自然变化模型并进一步提高深度学习对于自然变化的鲁棒性的三种新型算法,实验表明,该方法在自然情况下能够超越标准深度学习算法和基于范数的鲁棒深度学习算法。
May, 2020
本文提出一种名为 Adversarial Intensity Attack (AdverIN) 的与领域无关的方法,通过对抗性训练生成具有无限风格的训练数据,以增加数据多样性并提高分割模型的泛化能力,尤其适用于医学图像领域的多域分割数据集。
Apr, 2023
该研究探讨了在深度学习领域,对抗性鲁棒性的问题及其解决方法,提出了领域泛化和风险外推方法来应对不同攻击方式,对测试攻击的准确率得到了大幅提升。
Oct, 2022