RiDDLE:可逆多样化隐私保护与潜在加密
我们提出了 RID-Twin,这是一个利用先进的生成模型,从综合的视角出发来处理视频中的自动脸部去识别任务的新型流程,并讨论我们的方法如何解决该领域中的相关挑战。
Mar, 2024
本研究提出了 IdentityDP,这是一个脸部数据去识别框架,结合了一种数据驱动的深度神经网络和差分隐私(DP)机制。通过该框架,可以有效地推断脸部相关信息,保留重要视觉相似性并生成高质量图像,同时在不预注释情况下提供多样性结果,以实际需求为依据调整隐私和效用平衡,可广泛应用于身份非特异性计算机视觉任务。
Mar, 2021
为了解决社交媒体、照片设备的普及,以及人脸识别系统的不断增加所带来的图像隐私问题,我们提出了一种基于未经条件训练的生成模型的潜在空间的图像混淆新方法,该方法能够合成高分辨率、逼真的面部图像,并以满足局部差分隐私的形式进行操作。据我们所知,这是首个满足人的 ε- 差分隐私的图像隐私方法。
Mar, 2021
本研究开发了 IDistill 方法,利用自编码器学习域信息,并将其精炼为分类器,以便教会它分离身份信息。在三个数据库中它超越了其他方法,并在另外两个数据库中表现出竞争力,有望用于预防生物测量系统攻击中的模拟攻击。
Jun, 2023
本研究提出通过 StyleGAN 生成器的潜在空间编辑面部属性,通过训练专门的潜在空间转换网络并在损失函数中添加显式的分离和身份保存项来控制和保护身份,并介绍了一个将面部编辑推广到视频的流程。在真实图像和视频方面表现出出色的性能。
Jun, 2021
利用生成型神经网络构建一个新的面部去标识化流程,它可以合成虚拟的替代面部并应用于图像和视频中去标识化受试者,同时保留非身份相关的数据方面,并且证实这种基于 GNN 的去标识化方法非常有效,其去标识化后的图像能够达到近似随机的识别效果。
Jul, 2017
本文提出了一种新的算法,基于保护肖像实施先发制人的策略,将与关键面部属性密切相关的信息隐秘编码嵌入正式图片中,以便检测被篡改的图像,实验证明,该方法对于各种类型的伪造具有较好的鲁棒性。
May, 2023
通过引入微不可见的干扰来生成加密的面部照片以减少信息泄露,我们提出了一种基于受限频率和身份不可知性的框架,用于在未经授权的人脸识别中加密人脸图像,解决了黑盒攻击以及自然性保证的问题。我们的实验证明,我们的方法在生成更自然的加密面部照片方面胜过其他最先进的方法,并且在黑盒攻击的成功率达到 96%。此外,我们还使用真实的黑盒商业 API 验证了我们方法的功效,揭示了 FRIA 在实践中的潜力。
Aug, 2023
ID-Reveal 通过度量学习和对抗性训练策略学习了特定于人物说话时的时间面部特征,从而在没有任何伪造训练数据的情况下,实现面部伪造检测。与现有技术相比,ID-Reveal 在面部信息伪造检测上表现出更好的泛化性和鲁棒性。
Dec, 2020
本文探讨了一种隐私保护的匿名化方法,它针对行人图像保留授权模型的个人身份信息(PII),同时防止第三方识别 PII。通过采用前沿的可逆学习方法,把传统隐私保护的监督式匿名方法与身份不变模型相结合训练,以保护隐私并在保证行人图像语义信息完整的同时,在重新识别任务中取得了较好的表现。
Jul, 2022