基于深度学习的图像去混淆技术
本文研究了面部模糊化对 ImageNet 视觉识别基准的影响,结果显示面部模糊化对图像识别的准确性影响很小,预训练的深度神经网络在面部模糊化的图像上表现稳定,并且面部模糊化的数据在迁移学习中同样具有良好的转移性能。
Mar, 2021
本文提出了一种基于对抗训练的框架 DeepObfuscator,使用专门设计的学习性混淆器来保护在移动设备上运行的深度学习模型的隐私,从而防止被攻击者利用从原始数据中提取的特征进行图像重建和私有属性推断。实验结果表明,使用该算法后,重建图像的质量明显下降,无法对人物进行重新识别,同时攻击者获得的隐私信息分类准确度也显著降低。
Sep, 2019
论文提出了深度学习模型模糊化的方法,通过模拟卷积神经网络的特征提取器使攻击者无法盗用模型设计,并采用递归模拟方法和联合训练方法训练模拟网络。最终得到的模糊化模型不会损失精度,能有效地保护深度学习模型的关键结构免遭攻击。
Jun, 2018
本文提出了一种有效的隐私保护学习范式,通过对图像进行加密以实现人类不可察觉机器可识别,将这一方法应用于图像分类和目标检测,在 ImageNet 和 COCO 数据集上实验结果表明,这种方法可以实现与现有方法相当的准确性且能够确保加密图像的隐私安全。
Jun, 2023
本研究提出了一种新的隐私保护深度神经网络方案,既能够在训练和测试中将缺乏视觉信息的图像应用于 DNNs,也能够首次在加密域中考虑数据增强,该方法采用了一种新的基于像素的图像加密方法,同时提出了一种适应性网络以降低图像加密的影响,并对知名的 ResNet-18 网络应用该方法进行图像分类实验,结果表明,在加密域中进行数据增强的传统隐私保护机器学习方法包括现有最先进的方法都无法应用,而所提出的方法在分类精度方面表现卓越。
May, 2019
通过生成可被人类感知的图像,本研究在保护模型准确推断的同时,回避其他类似或不同目标的非授权黑盒模型,以实现实际的隐私保护。
Feb, 2024
研究提出了一种基于知觉不可辨别性 (PI) 的隐私保护机制,即 PI-Net,以保护图像数据集中的敏感信息,并提高隐私保护的效用,取得了显著的优势。
Apr, 2021