非普适例子
提出了一种解决目标数据未被授权使用的方法,其将无法学习的示例(UEs)添加了微不可见的扰动,以确保原始数据发布后仍无法精确分类。但是,此方法存在弊端,因为不受保护的其他数据可以用于消除保护,从而将不可学习的数据转换为可学习的数据。因此,提出了一种新的方法来解决这个问题,即通过纯化处理将 UEs 投射到 LEs 上,并使用新的联合条件扩散模型来去除 UEs 的噪音,实现对 UEs 的保护。这种方法不仅能够对有监督和无监督的 UEs 进行保护,而且还是一种通用的计数器测量方法。
May, 2023
为了保护数据隐私和知识产权,在公共可访问数据的开放共享过程中,通过引入经验证的扰动方法用于对抗未授权模型与训练时技术。本文提出了使用参数平滑参数化认证非可学习数据集的机制,以改善认证可学习性的紧密性,并设计了具备降低学习可信度的可以进行论证的不可学习示例(PUEs)的方法。实验证明,PUEs 相较于现有的 UEs 具有降低的认证可学习性和提高的经验鲁棒性。
May, 2024
本篇论文介绍了一种创新的数据保护方法,通过生成可转移的数据遗忘样本,从数据分布的角度考虑数据隐私问题,经过广泛实验证实了该方法的优越性能和保护能力。
May, 2023
本文提出了一种生成不可学习样本(Unlearnable Examples)的新技术,其可在更实际的标签不一致情况下使用,并配合视觉语言预训练模型使用,具有较强的数据保护能力。
Dec, 2022
提出了第一种针对时间序列数据的非法训练的 UE 生成方法,通过引入一种新形式的误差最小化噪声,可以选择性地应用于时间序列的特定片段,使其对 DNN 模型无法学习,同时对人类观察者不可察觉。通过对多个时间序列数据集进行广泛实验证明,该 UE 生成方法在分类和生成任务中都非常有效,可以保护时间序列数据免受未授权利用,并在合法使用中保持其实用性,从而为安全可靠的机器学习系统的发展做出贡献。
Feb, 2024
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基于简单网络的检测方法,可以识别所有现有的不可学习示例,这一点通过大量实验证明。不可学习示例在简单网络上的可检测性激发我们设计了一种新型的防御方法。我们建议使用更强的数据增强和简单网络生成的对抗噪声来降低检测性,并以更低的代价提供有效的防御措施。在不可学习示例中,带有大预算的对抗性训练是一种广泛使用的防御方法。我们建立了中毒和对抗预算之间的定量标准,用来确定稳健的不可学习示例的存在或对抗性防御的失败。
Dec, 2023
通过引入具有鲁棒性的噪声,设计了一种新的方法来生成稳健的不可学习样本,以缓解数据被未经授权地用于深度学习模型培训的风险,并且实验证明稳健的比起常规误差最小化噪声更加有效。
Mar, 2022
通过实验和对一些常见想法(例如线性分离)的否定,作者提出了一种名为正交投影攻击的新数据隐私破坏方式,从而揭示了采用无法学习的数据集保护数据隐私的潜在局限性并提出了解决方案。
May, 2023
利用多次使用的模型生成所需扰动,引入真实标签和伪标签以提高迁移性,并将扭曲层整合到训练流程中,通过实验证明所提出的 Segue 方法相比之前的方法更快(1000 倍),在不同数据集和模型架构上实现了迁移效果,并能抵抗 JPEG 压缩、对抗性训练和一些标准数据增强手法。
Oct, 2023
从博弈论的角度研究无法学习的样本攻击,将其形式化为非零和斯塔克尔伯格博弈,证明了博弈均衡存在并提出了一种新的攻击方法,该方法可以有效地毒害模型并适用于各种场景。
Jan, 2024