DeepObfuscation:通过知识蒸馏保护卷积神经网络结构
本文提出了一种基于对抗训练的框架 DeepObfuscator,使用专门设计的学习性混淆器来保护在移动设备上运行的深度学习模型的隐私,从而防止被攻击者利用从原始数据中提取的特征进行图像重建和私有属性推断。实验结果表明,使用该算法后,重建图像的质量明显下降,无法对人物进行重新识别,同时攻击者获得的隐私信息分类准确度也显著降低。
Sep, 2019
利用基于人工神经网络的现代图像识别方法,我们证明了可以从经过各种混淆保护的图像中恢复隐藏的信息,包括像素化、模糊和加密等技术,我们还证明通过训练人工神经网络即使这些图像被保护,也可以成功识别面部、识别物体和手写数字。
Sep, 2016
通过引入一种启发式方法来扰动输出概率,我们提出了一种简单而有效的防御措施,可轻松集成到模型中,不需要额外的训练,并且对模型性能影响小,在防御三种最先进的盗窃攻击方面表现出色,对于针对边缘设备的量化卷积神经网络同样有效。
Sep, 2023
本文研究了面部模糊化对 ImageNet 视觉识别基准的影响,结果显示面部模糊化对图像识别的准确性影响很小,预训练的深度神经网络在面部模糊化的图像上表现稳定,并且面部模糊化的数据在迁移学习中同样具有良好的转移性能。
Mar, 2021
基于对对抗性图像分类模式的观察,我们提出一种用于盗取模型的方法,结合时间侧信道和对抗性图像分类,以指纹识别多个著名的卷积神经网络和 Vision Transformer 架构,该方法可在减少查询次数的同时保持高准确率。
Feb, 2024
通过添加一个用于协作训练的对抗样本检测网络和设计一种新的数据采样策略,我们建议了一个简单的架构来构建具有一定鲁棒性的模型,该模型能够适应许多不同的对抗攻击,并针对 Cifar10 dataset 的实验表明这种设计对模型的鲁棒性具有积极影响。
Apr, 2022
本研究提出一种名为 DeepCloak 的防御性机制,通过识别和删除深度神经网络模型中多余的特征,限制攻击者生成对抗样本所需使用的维度,增强模型的抗干扰性能。实验结果表明,DeepCloak 能够提高最先进的深度神经网络模型对抗样本的性能。
Feb, 2017
本文提出了一种主动深度神经网络模型知识保护方案,NNSplitter,通过将模型划分为权重模糊的难以执行且低性能的模型部分和权重的索引和原始值只有授权用户才能访问的模型机密部分,其中模型机密部分得以在托管执行环境下保护。同时,本文基于强化学习提出了一个控制器来减少权重数量,最大程度地减少模型精度损失,并且实验结果表明只修改 313 个权重可将模糊的 VGG-11 模型在 Fashion-MNIST 上的精度降至 10%,同时还展示了 NNSplitter 对于潜在攻击源如规范剪辑和微调攻击是具有隐蔽性和韧性的。
Apr, 2023
我们提出了一种基于深度网络的隐秘传输方法,使用渗透策略将秘密深度网络模型潜入一个伪装的普通学习任务中,并使用渗透策略激活干扰滤波器,以实现深度网络模型的隐蔽通信。
Jul, 2023