通过引入一种名为 UGE 的方法,本文提出了一个保护训练过程中数据隐私的框架,其旨在在授权用户具备可学习性的同时,对潜在黑客具备不可学习性,从而确保数据的可用性和保护数据的隐私。
Apr, 2024
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基于简单网络的检测方法,可以识别所有现有的不可学习示例,这一点通过大量实验证明。不可学习示例在简单网络上的可检测性激发我们设计了一种新型的防御方法。我们建议使用更强的数据增强和简单网络生成的对抗噪声来降低检测性,并以更低的代价提供有效的防御措施。在不可学习示例中,带有大预算的对抗性训练是一种广泛使用的防御方法。我们建立了中毒和对抗预算之间的定量标准,用来确定稳健的不可学习示例的存在或对抗性防御的失败。
Dec, 2023
为了保护数据隐私和知识产权,在公共可访问数据的开放共享过程中,通过引入经验证的扰动方法用于对抗未授权模型与训练时技术。本文提出了使用参数平滑参数化认证非可学习数据集的机制,以改善认证可学习性的紧密性,并设计了具备降低学习可信度的可以进行论证的不可学习示例(PUEs)的方法。实验证明,PUEs 相较于现有的 UEs 具有降低的认证可学习性和提高的经验鲁棒性。
May, 2024
通过实验和对一些常见想法(例如线性分离)的否定,作者提出了一种名为正交投影攻击的新数据隐私破坏方式,从而揭示了采用无法学习的数据集保护数据隐私的潜在局限性并提出了解决方案。
May, 2023
提出了一种解决目标数据未被授权使用的方法,其将无法学习的示例(UEs)添加了微不可见的扰动,以确保原始数据发布后仍无法精确分类。但是,此方法存在弊端,因为不受保护的其他数据可以用于消除保护,从而将不可学习的数据转换为可学习的数据。因此,提出了一种新的方法来解决这个问题,即通过纯化处理将 UEs 投射到 LEs 上,并使用新的联合条件扩散模型来去除 UEs 的噪音,实现对 UEs 的保护。这种方法不仅能够对有监督和无监督的 UEs 进行保护,而且还是一种通用的计数器测量方法。
我们研究和设计了一个有效的非线性转换框架,并进行了广泛实验以证明深度神经网络可以有效地学习以往被认为是无法学习的数据 / 示例,从而提高了打破无法学习数据的能力,显示出比线性可分技术更好的性能,进一步指出现有的数据保护方法在防止未经授权的机器学习模型使用数据方面是不充分的,迫切需要开发更强大的保护机制。
Jun, 2024
本文提出了一种错误最小化的噪声类型,可以防止深度学习模型从个人数据中学习,这种噪声对人眼不可见,可以应用于面部识别等实际场景,并在样本和类别形式下取得了实证效果,从而对防止数据滥用奠定了重要基础。
Jan, 2021
本文介绍了一种优化方法,可提高可用性攻击方法的效果,减少计算时间要求,以解决商业目的的个人数据的非授权使用和私人数据的暗地收集,同时避免了当前许多攻击方法被对抗性训练所削弱的问题。
深度学习模型、机器取消学习、迁移取消学习、数据筛选、测试准确率。
通过引入具有鲁棒性的噪声,设计了一种新的方法来生成稳健的不可学习样本,以缓解数据被未经授权地用于深度学习模型培训的风险,并且实验证明稳健的比起常规误差最小化噪声更加有效。
Mar, 2022