文中讨论深度神经网络的鲁棒性,探索使用对抗干扰来做数据隐藏的可行性,并展示了效果竞争力强的编码技术及其在对抗干扰下的鲁棒性的改进方式。
Jul, 2018
我们研究和设计了一个有效的非线性转换框架,并进行了广泛实验以证明深度神经网络可以有效地学习以往被认为是无法学习的数据 / 示例,从而提高了打破无法学习数据的能力,显示出比线性可分技术更好的性能,进一步指出现有的数据保护方法在防止未经授权的机器学习模型使用数据方面是不充分的,迫切需要开发更强大的保护机制。
Jun, 2024
通过引入稳定的误差最小化噪声(SEM),我们进一步提高了无法学习示例的鲁棒性,通过针对随机扰动而不是耗时的对抗性扰动来训练防御性噪声,提高了防御性噪声的稳定性,从而在 CIFAR-10、CIFAR-100 和 ImageNet Subset 上实现了最新的性能。
Nov, 2023
本文提出了一种实用的针对深度神经网络的对抗攻击方法,通过语义意义感知的结构化扰动来操纵图像的语义属性,以此生成针对黑盒分类器的对抗扰动,并提出了两种无监督的语义操作方法,通过在潜在空间中扰动单个或多个潜在因素,并在真实图像数据上进行大量实验,证明了其能力的强大性,同时也论证了普适于所有图像的语义对抗样本的存在。
Jan, 2020
通过引入语义感知扰动来生成有效和逼真的对抗性样本,该方法在复杂数据集(如 ImageNet 和 MSCOCO)上针对图像分类和图像字幕任务进行了有效应用,且经综合用户研究证明其较其他攻击更为逼真。
Apr, 2019
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基于简单网络的检测方法,可以识别所有现有的不可学习示例,这一点通过大量实验证明。不可学习示例在简单网络上的可检测性激发我们设计了一种新型的防御方法。我们建议使用更强的数据增强和简单网络生成的对抗噪声来降低检测性,并以更低的代价提供有效的防御措施。在不可学习示例中,带有大预算的对抗性训练是一种广泛使用的防御方法。我们建立了中毒和对抗预算之间的定量标准,用来确定稳健的不可学习示例的存在或对抗性防御的失败。
Dec, 2023
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。
Mar, 2018
本文提出了一种方法,通过从未标记数据的大量语义无关信息中参考 “样本” 生成各种多样化的对应物,使得 DNN 在学习新任务时能够有效地避免遗忘,特别是本方法在 CIFAR-100 和 ImageNet-Subset 等数据集上表现优于现有技术。
Apr, 2022
通过实验和对一些常见想法(例如线性分离)的否定,作者提出了一种名为正交投影攻击的新数据隐私破坏方式,从而揭示了采用无法学习的数据集保护数据隐私的潜在局限性并提出了解决方案。
May, 2023
通过逐步的训练来有效防止模型在学习扰动特征时过拟合,从而防止第三方利用未授权的数据生成不可学习样本。
Jun, 2023