PRIME:保护视频免受恶意编辑
通过生成可被人类感知的图像,本研究在保护模型准确推断的同时,回避其他类似或不同目标的非授权黑盒模型,以实现实际的隐私保护。
Feb, 2024
大规模多模式语言模型已在许多应用中证明具有变革性。然而,这些模型已被证明会记忆和泄漏预训练数据,引发用户隐私和信息安全方面的严重关切。我们介绍了 PrivQA - 一个多模式基准,用于评估在模拟场景中指示模型保护特定类别个人信息时,此隐私 / 效用权衡。我们还提出了一种通过迭代自我调节响应的技术,在很大程度上提高了隐私。通过一系列红队实验,我们发现对手可以通过简单的越狱方法绕过这些保护,使用文本和 / 或图像输入。我们相信 PrivQA 有潜力支持开发具有改进隐私保护和对抗鲁棒性的新模型。我们在指定的网址上发布了整个 PrivQA 数据集。
Oct, 2023
该研究提出了一种基于可视化隐私顾问的方法,在图像内容方面扩展用户的隐私设置,以减轻用户分享图片带来的隐私风险和隐私泄露的风险。通过将个人信息映射为图像属性,从图像直接预测个人信息,了解不同用户在隐私属性方面的偏好,并在此基础上提出模型以预测用户在隐私风险方面的表现,并在一定程度上优于用户自己的隐私风险认知。
Mar, 2017
本文提出了一种新的算法,基于保护肖像实施先发制人的策略,将与关键面部属性密切相关的信息隐秘编码嵌入正式图片中,以便检测被篡改的图像,实验证明,该方法对于各种类型的伪造具有较好的鲁棒性。
May, 2023
该研究介绍了三种人脸访问模型,使用深假面替换未经批准的面孔,并提出了适用于此任务的新度量标准,通过在真实数据集和两个合成数据集上测试,证明了该系统的有效性,并对相似性度量、深假面生成器和数据集进行了广泛分析。
Nov, 2022
本文研究了简单易用的图像处理技术如何影响面部识别软件通过一个唯一的图像来识别一个人的各种面部图像,以应对随着虚拟和物理身份日益交织在一起,隐私和安全在在线领域中的重要性变得日益重要的情形。
May, 2023
本文提出 “分割式打码” 方法,通过对用户研究发现,对涉及个人信息的图片区域进行模糊处理可以保护个人隐私,同时保留图片的有效信息。为此,我们提出了第一个包含多类隐私信息的大规模私人图像数据集,并提出了第一个自动打码模型。
Dec, 2017
提出了一种新的基于降维的隐私保护方法,该方法可生成经过降维的数据以执行机器学习任务,并防止强敌从中重构原始数据。在三个不同的人脸图像数据集上进行实验,结果显示当将维数降低到七时,可以分别实现 79%、80%和 73%的准确率,并且重构后的图像肉眼不可识别。
Feb, 2019
介绍了一个名为 PrivPAS 的实时隐私保护人工智能系统,该系统能够鉴定敏感内容,并识别和定位可访问性标志,以及对残障人士进行分类。该软件不占用过多的内存,适用于资源受限设备,并在面部匿名数据上训练而成,拥有高 mAP(89.5%)和 F1 得分(73.1%)。
Feb, 2022