博弈论非学习样本生成器
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基于简单网络的检测方法,可以识别所有现有的不可学习示例,这一点通过大量实验证明。不可学习示例在简单网络上的可检测性激发我们设计了一种新型的防御方法。我们建议使用更强的数据增强和简单网络生成的对抗噪声来降低检测性,并以更低的代价提供有效的防御措施。在不可学习示例中,带有大预算的对抗性训练是一种广泛使用的防御方法。我们建立了中毒和对抗预算之间的定量标准,用来确定稳健的不可学习示例的存在或对抗性防御的失败。
Dec, 2023
本文介绍了一种新的生成模型,用于对机器学习分类器进行攻击,并提出了一种生成式对抗网络,包括生成器、鉴别器和目标分类器,以模拟在现实攻击中可以预期的检测限制,进而确定底层数据分布的易受数据中毒攻击的区域。
Jun, 2019
为了保护数据隐私和知识产权,在公共可访问数据的开放共享过程中,通过引入经验证的扰动方法用于对抗未授权模型与训练时技术。本文提出了使用参数平滑参数化认证非可学习数据集的机制,以改善认证可学习性的紧密性,并设计了具备降低学习可信度的可以进行论证的不可学习示例(PUEs)的方法。实验证明,PUEs 相较于现有的 UEs 具有降低的认证可学习性和提高的经验鲁棒性。
May, 2024
通过引入一种名为 UGE 的方法,本文提出了一个保护训练过程中数据隐私的框架,其旨在在授权用户具备可学习性的同时,对潜在黑客具备不可学习性,从而确保数据的可用性和保护数据的隐私。
Apr, 2024
本文提出一种新方法通过使用 Error-Minimizing Structural Poisoning (EMinS) 模块向图中注入干扰噪声,从而使图形变得不可探测,以解决商业图形神经网络 (GNN) 模型训练中的潜在数据隐私问题,并在 COLLAB 数据集上将准确性从 77.33% 降低到 42.47%。
Mar, 2023
本文提出 Adversarial Example Games (AEG),一种基于 min-max 博弈的生成对抗样本方法,实现了在给定假设类别的基础上训练生成器和分类器,证明了该方法能生成可攻击对应假设类别中所有分类器的对抗样本,实验表明该方法在 MNIST 和 CIFAR-10 数据集上相对于其他方法有了明显的提升。
Jul, 2020
提出了一种解决目标数据未被授权使用的方法,其将无法学习的示例(UEs)添加了微不可见的扰动,以确保原始数据发布后仍无法精确分类。但是,此方法存在弊端,因为不受保护的其他数据可以用于消除保护,从而将不可学习的数据转换为可学习的数据。因此,提出了一种新的方法来解决这个问题,即通过纯化处理将 UEs 投射到 LEs 上,并使用新的联合条件扩散模型来去除 UEs 的噪音,实现对 UEs 的保护。这种方法不仅能够对有监督和无监督的 UEs 进行保护,而且还是一种通用的计数器测量方法。
May, 2023
我们研究和设计了一个有效的非线性转换框架,并进行了广泛实验以证明深度神经网络可以有效地学习以往被认为是无法学习的数据 / 示例,从而提高了打破无法学习数据的能力,显示出比线性可分技术更好的性能,进一步指出现有的数据保护方法在防止未经授权的机器学习模型使用数据方面是不充分的,迫切需要开发更强大的保护机制。
Jun, 2024
我们提出了一种新的预训练净化方法,利用离散变分自动编码器(D-VAE)来解缠扰动,并采用两阶段净化方法,以消除扰动并在各种情景下确保有效性和鲁棒性。
May, 2024
本论文研究了在机器学习算法中,特别是深度神经网络中毒攻击的方法,提出了生成毒瘤数据的生成方法,并设计了一种检测方法来检测这种攻击。实验结果表明,与直接梯度法相比,这种方法可以加速毒瘤数据的生成速度高达 239.38 倍,且模型的准确度下降略微较低。
Mar, 2017