对抗图像篡改分析
该研究提出了一种基于可视化隐私顾问的方法,在图像内容方面扩展用户的隐私设置,以减轻用户分享图片带来的隐私风险和隐私泄露的风险。通过将个人信息映射为图像属性,从图像直接预测个人信息,了解不同用户在隐私属性方面的偏好,并在此基础上提出模型以预测用户在隐私风险方面的表现,并在一定程度上优于用户自己的隐私风险认知。
Mar, 2017
该篇研究论文提出了一种名为 Face-Off 的隐私保护框架,旨在通过对用户面部进行策略性扰动来防止它被正确识别,该框架能够欺骗微软、亚马逊和 Face++ 等三种商业人脸识别服务,并且用户研究表明,所进行的扰动对用户的成本是可以接受的。
Mar, 2020
该文研究了面部识别系统,并提出了可以应对这种系统的对抗滤镜,实验表明这种滤镜可以有效的通过包含面部检测和大规模数据库的工业流水线,同时发布了易于使用的 Web 工具来降低 Amazon Rekognition 和 Microsoft Azure Face Recognition API 的准确性。
Jan, 2021
本文旨在通过研究社交媒体数据中人员识别的准确性,为我们日益涉足虚拟空间,隐私受到威胁的新现实提供理解。我们定义了多种场景并提出了一种强大的人员识别系统,证明即便在人脸被模糊处理的情况下,仍然能威胁到用户的隐私安全。本文详细论述了我们的实验结果及其涵义。
Jul, 2016
研究表明采用对抗性图像扰动(AIP)可以在不影响图像质量的情况下有效地混淆识别系统,但未知对策时 AIP 效果不确定,因此引入了博弈论框架来研究用户和识别器之间的交互,并推导出用户的最优策略以确保识别率上限是独立于识别器的对策选择的。
Mar, 2017
该研究探讨了如何利用图像处理技术通过边缘过滤舍弃隐私信息之后再将传感器数据传输到云端,较其直接传输可以更好地保护用户的隐私。该方法使用了最先进的图像处理技术,定义了反选和选中的过滤操作,对比了正常情况下的相关性和残留信息对隐私保护的影响,结果表明该过滤方法很有前途,值得进一步研究。
Aug, 2022
本文评估了使用两种广为人知的敌对生成方法 (BIM and ILLC) 来去识别个人图像的效果,并发现使用几乎不可察觉的敌对扰动来达到高的保护成功率 (抑制识别率) 并不容易。最后,我们发现敌对样本的可转移性受其生成网络的训练参数的影响非常大。
Feb, 2023
该研究提出了一种名为 FoggySight 的解决方案,通过诸如对抗机器学习算法等方式,在图片上传到社交媒体之前,以保护个人隐私的方式,对人脸图片进行修改。FoggySight 的核心特征是共同保护策略,参与者可以作为其他用户隐私的保护者,上传由对抗性机器学习算法生成的诱骗图片,以保护面部隐私,包括防止具有未知内部结构的人脸识别服务的侵害。
Dec, 2020
本文对当前合成图像生成和处理技术的发展进行了探讨,并提出了一个基于 DeepFakes,Face2Face,FaceSwap 和 NeuralTextures 的面部操作检测基准,包括超过 180 万个操纵图像的数据库,并通过数据驱动型假冒检测器的详尽分析证明了使用额外领域特定知识的方法能够显著提高假冒检测的准确性。
Jan, 2019