本文提出了一种错误最小化的噪声类型,可以防止深度学习模型从个人数据中学习,这种噪声对人眼不可见,可以应用于面部识别等实际场景,并在样本和类别形式下取得了实证效果,从而对防止数据滥用奠定了重要基础。
Jan, 2021
通过引入具有鲁棒性的噪声,设计了一种新的方法来生成稳健的不可学习样本,以缓解数据被未经授权地用于深度学习模型培训的风险,并且实验证明稳健的比起常规误差最小化噪声更加有效。
Mar, 2022
我们研究和设计了一个有效的非线性转换框架,并进行了广泛实验以证明深度神经网络可以有效地学习以往被认为是无法学习的数据 / 示例,从而提高了打破无法学习数据的能力,显示出比线性可分技术更好的性能,进一步指出现有的数据保护方法在防止未经授权的机器学习模型使用数据方面是不充分的,迫切需要开发更强大的保护机制。
Jun, 2024
通过使用少量的样本,本研究提出了三种机制进行训练,其中原型重建是最有效的,生成的对抗性样本可成功地转移至各种图像分类和面部验证模型,最终的应用结果显示我们的方法能够显著降低商业名人识别系统的预测准确率近 15.4%。
Dec, 2020
通过采用对比样本增强的方式,在监督学习和对比学习算法中实现了卓越的模型无法学习性能,以提高数据保护的能力。
Feb, 2024
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
深度学习模型在多个领域取得了巨大的成功,但研究发现这些模型存在各种攻击,会危及模型的安全性和数据隐私,特别是模型抽取攻击、模型反转攻击和对抗攻击。这篇论文研究了这些攻击以及它们对深度学习模型的影响。
Nov, 2023
本篇论文介绍了一种创新的数据保护方法,通过生成可转移的数据遗忘样本,从数据分布的角度考虑数据隐私问题,经过广泛实验证实了该方法的优越性能和保护能力。
May, 2023
该研究介绍了一种利用黑盒攻击实现远程控制机器学习模型的方法,该攻击方式不需要了解模型内部或训练数据。研究表明该黑盒攻击策略可适用于许多机器学习技术,并且能够规避之前发现的防御策略。
Feb, 2016
随着社交媒体的出现,隐私保护变得越来越关键。我们提出了使用深度学习模型的泛化能力降低的不可学习示例来避免在互联网上泄露个人信息,然而我们的研究发现,不可学习示例很容易被检测出来。我们提供了关于某些不可学习污染数据集的线性可分性的理论结果和基于简单网络的检测方法,可以识别所有现有的不可学习示例,这一点通过大量实验证明。不可学习示例在简单网络上的可检测性激发我们设计了一种新型的防御方法。我们建议使用更强的数据增强和简单网络生成的对抗噪声来降低检测性,并以更低的代价提供有效的防御措施。在不可学习示例中,带有大预算的对抗性训练是一种广泛使用的防御方法。我们建立了中毒和对抗预算之间的定量标准,用来确定稳健的不可学习示例的存在或对抗性防御的失败。
Dec, 2023