本文提出了一种基于生成对抗网络和视觉注意力机制的雨滴去除方法,成功地将雨滴污染的图像还原为干净图像,并取得了比同类方法更好的定量和定性效果。
Nov, 2017
该研究基于对 Deep Neural Networks(DNNs)的视觉知觉能力的探究,提出了一种新的对抗攻击方法 AdvDrop,这种新型对抗样本更难以被当前的防御系统防御。
Aug, 2021
本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
本文提出了一种新的框架 Attack-Inspired GAN,它可以通过联合训练的生成器、鉴别器和攻击器,以更有效的方式生成攻击性畸变,从而实现对图像分类任务的攻击成功率提高和生成时间的减少。
Feb, 2020
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
该研究综述了最近针对文本深度神经网络攻击的研究。通过研究,讨论了现有攻击对文本数据不可直接应用的问题,并提出了关于这个话题的建议。
Jan, 2019
提出了一种新的对抗样本解决方案,该方案通过随机破坏样本中的特征,阻止攻击者构建有影响力的对抗样本,从而显著提高深度神经网络对抗样本的鲁棒性,同时保持高分类准确性。
Oct, 2016