基于掩码模板的隐私保护
本文讨论了生物识别系统,特别是脸部模态的漏洞和如何通过伪造攻击的方式欺骗生物识别系统,并提出了十个问题,以开始在人工智能时代探讨市民数据安全和数据隐私问题。
May, 2022
本文提出了一种隐私保护技术,即 PEEP,该技术可对面部图像进行扰动以防止生物特征泄漏,并利用局部差分隐私的方法在第三方服务器上运行 Eigenface 识别算法。实验结果表明,PEEP 在标准隐私设置下的分类准确率约为 70%-90%。
May, 2020
利用生物识别技术的高风险性及潜在隐私问题,本文提出了一种新颖的数据转换框架,可实现对生物识别数据的匿名化处理,以降低敏感信息泄露的风险并保留下游机器学习分析所需的特征。实验证明了该框架能通过高度抑制敏感信息的方式,同时保持数据的实用性,从而使得对匿名化生物识别数据的后续分析仍能达到令人满意的准确性。
May, 2024
提出了一种高效的隐私保护多生物特征识别系统,通过利用来自不同类型生物特征的频繁二进制模式中包含的低类内变异属性,设计了一种多生物特征分箱方案,实验结果表明,该多生物特征识别系统可以将计算工作量降低约 57%(索引最多三种生物特征类型)和 53%(索引最多两种生物特征类型),同时提高了基准生物特征系统在高安全阈值下的生物特征性能。
Oct, 2023
通过评估非可逆性要求的满足程度以及面部嵌入提取器的漏洞评估,本文研究了声称提供软生物特征隐私保护的方法以及隐私保护中使用的转换复杂性,实验结果表明,受保护的面部嵌入可以在达到约 98% 的精度时重构。
Oct, 2023
该研究论文讨论了机器学习治理和预防算法危害的问题,以及如何应用 GDPR 监管。同时,介绍了信息安全领域中的模型逆推和成员推断攻击,并探讨了将某些模型合法归类为个人数据所涉及的不同权利和义务,以及这些措施的效用,并考虑了算法治理和监管的未来方向。
Jul, 2018
本文利用深度学习方法对人脸识别中的模板进行分析,探究其中包含的 113 个属性。结果显示,最多可预测 74 个属性,尤其是年龄、发型、发色、胡须和不同配件等不稳定属性容易被预测。这项工作有助于开发更加隐私保护、公平的人脸模板。
Sep, 2020
本文旨在通过研究社交媒体数据中人员识别的准确性,为我们日益涉足虚拟空间,隐私受到威胁的新现实提供理解。我们定义了多种场景并提出了一种强大的人员识别系统,证明即便在人脸被模糊处理的情况下,仍然能威胁到用户的隐私安全。本文详细论述了我们的实验结果及其涵义。
Jul, 2016