基于 GAN 的深度特征检索的无监督对抗攻击
本文提出了一种基于 GAN 的无监督图像增强模型 (UEGAN),利用调制机制和质量损失函数增强图像的视觉质量,消除专业照片编辑造成的风格化问题。我们的质量和定量实验验证了我们的模型的有效性。
Dec, 2020
本文提出了一种新的框架 Attack-Inspired GAN,它可以通过联合训练的生成器、鉴别器和攻击器,以更有效的方式生成攻击性畸变,从而实现对图像分类任务的攻击成功率提高和生成时间的减少。
Feb, 2020
本研究使用生成对抗网络(GANs)的目标函数来学习与源数据集不可区分的目标特征,并将其扩展到强制学习通过特征增强在特征空间进行培训的无监督域自适应任务。结果表明,强制进行域不变性和执行特征增强可以导致几个无监督域适应基准测试的优秀或相当的性能。
Nov, 2017
本文通过使用 GAN 生成无约束对抗样本并在潜空间中成功操纵潜向量以欺骗分类模型,提出了一个新的方法:Latent-HSJA,该方法在黑盒设置中只能访问分类模型的前 k 项决策,是对少量查询的分类模型强度评估的有效方法。
Aug, 2022
为了解决深度神经网络的鲁棒性问题,文中提出了一种针对训练代理的通用框架,覆盖了对代理环境进行语义扰动和像素级攻击的情况,主要针对自主导航的几个方面,BBGAN 攻击可以生成一致愚弄训练代理的失败案例。
Dec, 2018
本文提出了 AdvGAN,一种使用生成对抗网络产生高感知质量的对抗样本的方法,可以更高效地生成对抗性的扰动用于敌对训练,同时在半白盒和黑盒攻击设置下,AdvGAN 都能在 MNIST 黑盒攻击竞赛中取得 92.76%的攻击成功率。
Jan, 2018
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
Dec, 2016
该论文提出深度卷积生成对抗网络(DCGANs)可以用于无监督学习,通过在各种图像数据集上的训练,证明了 DCGANs 能够学习从物体部分到场景的表示层次结构,并且可以用于一般图像表示。
Nov, 2015
在本文中,我们提出了一种名为 RetouchUAA 的无约束攻击方法,通过利用图像修饰样式展示其对深度神经网络的潜在威胁。与现有攻击相比,RetouchUAA 在生成可解释和逼真的扰动方面表现出色,并且由于修饰决策规范和持久攻击策略的设计,还展示出出色的攻击能力和防御稳健性。实验证明,RetouchUAA 对三个深度神经网络的白盒攻击成功率近乎 100%,并且在图像的自然性,可转移性和防御稳健性之间取得了更好的平衡。
Nov, 2023
通过设计语义感知的生成对抗网络,将测试图像转换成源域的外观,保留语义结构信息,并实现语义标签空间内的嵌套对抗学习。通过生成对抗网络映射数据分布、循环一致性保留像素级内容以及语义感知增强结构信息,实现对两个不同的胸部 X 光公共数据集进行左 / 右肺分割的无监督领域自适应,创造性地解决了深度学习在 domain shift 上性能下降的问题,并与有监督的迁移学习性能相媲美。
Jun, 2018