CUDA: 基于卷积的不可学习数据集
本文介绍了一种基于错误最大化噪声生成和损坏修复的权重操作方法的机器遗忘框架,该方法可以高效地针对单个或多个类别的数据从机器学习模型中删除,同时保持模型的高准确性,并且适用于各种深度网络设计,可为深度网络中的遗忘操作提供一种快捷且易于实现的方法。
Nov, 2021
本研究提出了一种名为单像素快捷方式 (OPS) 的方法,使用受保护的图像生成无法学习的数据集CIFAR-10-S,该数据集几乎可以使训练的CNN模型表现得像未受过训练一样。该方法利用针对图像中单个像素的扰动,且该扰动不易被消除,并针对同一类别图像采用固定位置和目标值进行扰动生成OPS,以极低的计算成本 (不使用DNN生成器) 对CNN模型进行攻击。
May, 2022
通过实验和对一些常见想法(例如线性分离)的否定,作者提出了一种名为正交投影攻击的新数据隐私破坏方式,从而揭示了采用无法学习的数据集保护数据隐私的潜在局限性并提出了解决方案。
May, 2023
通过引入稳定的误差最小化噪声(SEM),我们进一步提高了无法学习示例的鲁棒性,通过针对随机扰动而不是耗时的对抗性扰动来训练防御性噪声,提高了防御性噪声的稳定性,从而在CIFAR-10、CIFAR-100和ImageNet Subset上实现了最新的性能。
Nov, 2023
通过随机的乘法变换和插值操作,我们成功地提出了一种抵御基于卷积的无法学习数据集的全新图像破坏方法,有效地抑制了基于卷积的无法学习数据集中的乘法噪声的影响,并且在实验证明我们的方法对于这种类型的数据集是最有效的。
Nov, 2023
我们提出了一种新的类别遗忘算法,通过估计待保留和遗忘类别的特征或激活空间,并计算这些空间之间的共享信息,从而实现有效的机器遗忘,并在各种图像分类数据集和网络架构中相比其他基准算法效果明显提高,且计算效率提高了约6倍。
Dec, 2023
改进机器遗忘,提出图像分类的数据集精简技术和创新性遗忘方案,平衡隐私保护、实用性和效率,并运用于抵御成员推理和模型逆推攻击,并去除精简模型中的数据以快速训练任何模型。
Jan, 2024
我们研究和设计了一个有效的非线性转换框架,并进行了广泛实验以证明深度神经网络可以有效地学习以往被认为是无法学习的数据/示例,从而提高了打破无法学习数据的能力,显示出比线性可分技术更好的性能,进一步指出现有的数据保护方法在防止未经授权的机器学习模型使用数据方面是不充分的,迫切需要开发更强大的保护机制。
Jun, 2024