该论文提出了一种基于条件生成对抗网络的图像视频去标识化模型 CIAGAN,可以同时保证匿名性和多样性,用于保护隐私并在计算机视觉任务中得到高质量处理结果。
May, 2020
该研究提出了一种基于条件生成对抗网络的新型体系结构,可以在保留原始数据分布的同时自动地对图像中的人脸进行匿名处理,以隐私安全信息为基础生成图像实现了对图像中所有人脸的完全匿名化,并且引入了包括非传统姿势、遮挡脸部和背景变化巨大的人脸数据集。最后,该模型在保护图像隐私的同时也适合于进一步用于深度学习模型的训练。该模型是保证人脸匿名化的同时生成逼真图像的首个解决方案。
Sep, 2019
该论文提出了一种新的方法来学习视频脸部匿名化,使用对抗训练设置,在像素级别修改以匿名化每个人的脸,以确保隐私敏感信息得到删除,并尽量减少对行动检测性能的影响。
Mar, 2018
本文研究了通过对抗性的样本对基于卷积神经网络的相机模型检测器进行欺骗的反取证方法,并展示了即使用针对图像分析和获取相机模型信息的先进深度学习架构,也存在一定漏洞。
May, 2018
本文介绍了基于潜在扩散模型(LDMs)的图像匿名化的方法,该方法是首次根据 LDMs 进行图像匿名化的方法,实现了身份混淆并更好地保留了原始图像内容。
Mar, 2024
本文提出了一种通过设计对抗方法搜索解剖指纹(如医疗设备或皮肤艺术)来估计重现可识别训练图像的概率上限的方法,利用学习到的基于分数的模型估计可能用于一对一复制训练样本的分数函数子空间的概率,结果表明,如果模型没有小心训练,则在采样时会复制侵犯隐私的图像。
Jun, 2023
通过生成可被人类感知的图像,本研究在保护模型准确推断的同时,回避其他类似或不同目标的非授权黑盒模型,以实现实际的隐私保护。
Feb, 2024
本文提出通过对图像进行优化来平衡隐私预算和目标任务分析性能的对抗训练框架,并且使用预算模型重启和集成策略来提高对新的黑客模型的保护性。通过使用两个隐私保护行动识别中的实验,该框架在同时维持高目标任务(行动识别)性能之余,成功抑制了隐私侵犯的风险。
Jul, 2018
本文提出一种带有隐私保护机制的视频动作识别模型,通过敌对训练来寻找能够最佳平衡目标任务性能与隐私保护程度的匿名转换方法,并给出了两种优化策略以实现对于攻击模型的普适隐私保护。同时,构建了一种全新的视频数据集 PA-HMDB51,为视觉隐私研究提供了有力支持。
Jun, 2019
本文研究图像匿名化对计算机视觉模型训练的影响,检验了传统和逼真匿名化对人脸和全身数据集中检测、实例分割和姿态估计任务的影响,结果表明逼真匿名化最大降低可达到维护隐私的同时保持计算机视觉模型性能。