本文提出了 Purifying Variational Autoencoder(PuVAE)这一方法来净化对抗样本,并在实验中展示该方法对各种攻击方法的鲁棒性展现了较高的性能,其推理时间大约比 Defense-GAN 这一当前最先进的净化模型快 130 倍。
Mar, 2019
为了保护数据隐私和知识产权,在公共可访问数据的开放共享过程中,通过引入经验证的扰动方法用于对抗未授权模型与训练时技术。本文提出了使用参数平滑参数化认证非可学习数据集的机制,以改善认证可学习性的紧密性,并设计了具备降低学习可信度的可以进行论证的不可学习示例(PUEs)的方法。实验证明,PUEs 相较于现有的 UEs 具有降低的认证可学习性和提高的经验鲁棒性。
May, 2024
提出了一种解决目标数据未被授权使用的方法,其将无法学习的示例(UEs)添加了微不可见的扰动,以确保原始数据发布后仍无法精确分类。但是,此方法存在弊端,因为不受保护的其他数据可以用于消除保护,从而将不可学习的数据转换为可学习的数据。因此,提出了一种新的方法来解决这个问题,即通过纯化处理将 UEs 投射到 LEs 上,并使用新的联合条件扩散模型来去除 UEs 的噪音,实现对 UEs 的保护。这种方法不仅能够对有监督和无监督的 UEs 进行保护,而且还是一种通用的计数器测量方法。
May, 2023
本文提出了一种生成不可学习样本(Unlearnable Examples)的新技术,其可在更实际的标签不一致情况下使用,并配合视觉语言预训练模型使用,具有较强的数据保护能力。
Dec, 2022
该研究探讨了使用无香精变换来改进变分自编码器生成模型的表现,使用更具信息量和低方差的后验表示来确保更高质量的重建,并使用 Wasserstein 分布度量来替换 KL 散度以允许更快的后验分布,最后得到了一种竞争力强的确定性采样 VAE,可在脚手架分数上提高性能,训练方差较低。
Jun, 2023
使用变分自编码器的防御策略抵御深度神经网络在图片分类任务中的对抗性攻击。这个防御系统具有灵活性、可学习分解表示以及基于像素块不需要针对不同尺寸的图片进行重新训练等特性,并在中度到严重的攻击情况下,明显胜过 JPEG 压缩及其最优参数,同时仍有提升空间。
Dec, 2018
从博弈论的角度研究无法学习的样本攻击,将其形式化为非零和斯塔克尔伯格博弈,证明了博弈均衡存在并提出了一种新的攻击方法,该方法可以有效地毒害模型并适用于各种场景。
Jan, 2024
该研究提出了一种名为 APuDAE 的深度学习框架,利用去噪自编码器(DAE)以自适应方式净化样本,并提高目标分类器网络的分类准确度并使其更加鲁棒。
Aug, 2022
提出了第一种针对时间序列数据的非法训练的 UE 生成方法,通过引入一种新形式的误差最小化噪声,可以选择性地应用于时间序列的特定片段,使其对 DNN 模型无法学习,同时对人类观察者不可察觉。通过对多个时间序列数据集进行广泛实验证明,该 UE 生成方法在分类和生成任务中都非常有效,可以保护时间序列数据免受未授权利用,并在合法使用中保持其实用性,从而为安全可靠的机器学习系统的发展做出贡献。
Feb, 2024
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基于简单网络的检测方法,可以识别所有现有的不可学习示例,这一点通过大量实验证明。不可学习示例在简单网络上的可检测性激发我们设计了一种新型的防御方法。我们建议使用更强的数据增强和简单网络生成的对抗噪声来降低检测性,并以更低的代价提供有效的防御措施。在不可学习示例中,带有大预算的对抗性训练是一种广泛使用的防御方法。我们建立了中毒和对抗预算之间的定量标准,用来确定稳健的不可学习示例的存在或对抗性防御的失败。
Dec, 2023