通过对抗性仿射子空间嵌入实现隐私保护的图像特征
现代计算机视觉服务经常要求用户与不受信任的服务器共享原始特征描述符,这带来隐私风险,为解决此问题,研究人员最近提出了通过将图像特征嵌入一个仿射子空间中从而使其包含原始特征及对抗特征样本来实现特征私有化。本文提出了两种新的反演攻击方法,证明从这些嵌入中可以(近似地)恢复原始图像特征,从而能够恢复敏感的图片内容。鉴于这样的成功和现有视觉隐私方法缺乏理论上的隐私保证,我们进一步提出了第一个通过局部差分隐私来实现图像特征私有化的方法,不同于先前的方法,该方法提供了一个隐私泄露的保证边界,无论攻击的强度如何。此外,我们的方法在视觉定位作为下游任务中表现出很强的性能,并享有隐私保证。
Aug, 2023
本研究提出了一种基于对抗特征的面部隐私保护 (AdvFace) 方法,通过在对手模型中生成对抗性的潜在噪声来破坏从对抗性特征到面部图像的映射,生成隐私保护的对抗性特征来防御面部重建攻击。实验表明,AdvFace 在维护面部识别准确性的同时,比目前最先进的面部隐私保护方法更有效地防御重建攻击。
May, 2023
本文提出了一种对抗性重构学习框架,旨在学习一种以任务为导向的隐私保护表示,以防止模型反演攻击,采用负像素重构损失或负感知距离损失最小化来实现,展示了在面部属性预测任务中我们的方法可以在小幅度降低实用性的情况下保护视觉隐私,并提供了不同特征、任务和数据的广泛研究,以进一步分析它们对隐私保护的影响和效用 - 隐私权衡的关系。
Nov, 2019
本文提出了一种新颖的隐私保护神经网络特征表示方法,使得学习到的空间中的敏感信息得以削弱,同时保持数据的实用性;该方法不仅保证了用户数据的隐私,而且还提升了算法的公平性和结果的可行性。
Feb, 2019
基于图像压缩的灵感,本文提出了一种通过特征减法在原始面部图像和模型生成的再生图像之间创建视觉上无信息的面部图像的方法,通过对高维特征表示进行共同训练来鼓励图像中的可识别身份特征,通过随机通道混洗来增强隐私保护,得到了缺乏攻击者可利用的纹理细节的随机可辨认图像。我们将这些方法总结为一种新颖的隐私保护人脸识别方法 MinusFace,实验证明其具有高的识别准确性和有效的隐私保护。其代码可在此 URL 中获得。
Mar, 2024
本文提出了一种新的对抗攻击方法,通过扰动表示样式的抽象特征,包括可解释和不可解释的风格,诸如鲜艳色彩和锐利轮廓等,通过优化程序注入难以察觉的风格变化,实现深度神经网络模型误分类,我们展示了该方法产生的对抗样本比现有的非受限制攻击更加自然,并支持现有的像素空间的对抗攻击检测和防御技术难以在风格相关特征空间中保证模型的鲁棒性。
Apr, 2020
本文提出了一种通过对抗学习策略学习能够抵抗特定数据因素影响的新型表示学习方法,并通过多个基准测试表明所提出的方法可以获取到不变表示,从而提高模型的泛化能力。
May, 2017
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
为了解决社交媒体、照片设备的普及,以及人脸识别系统的不断增加所带来的图像隐私问题,我们提出了一种基于未经条件训练的生成模型的潜在空间的图像混淆新方法,该方法能够合成高分辨率、逼真的面部图像,并以满足局部差分隐私的形式进行操作。据我们所知,这是首个满足人的 ε- 差分隐私的图像隐私方法。
Mar, 2021