PriPHiT:隐私保护的深度神经网络分层训练
该研究提出了一种基于中间表示的DNN拆分框架,其中本地神经网络用于生成特征表示,云神经网络则基于提取的中间表示用于目标学习任务的训练,在保护数据隐私的同时优化目标任务的准确性,并提出PrivyNet来确定本地神经网络的拓扑结构以优化目标任务的准确性并在保证数据隐私、本地计算和存储方面受到限制。
Sep, 2017
本研究提出一种框架,使用自然对抗优化的方法,通过训练编码器与私密属性分类器作为深度神经网络,在维护实用性的同时,抑制隐私属性的推理,本文的关键贡献是提出了一种稳定且收敛的优化方法,使得分类器不能够准确地预测私密属性,实验结果表明该方法能够对实际场景中的高维编码实现隐私保护。
Feb, 2018
提出了一种名为“Privacy Partitioning”的方法,通过将机器学习模型拆分并部署到本地设备和远程服务器中,保护用户数据,防止对状态最先进的深度网络的中间状态进行攻击并推断出隐私敏感的输入。(该方法)能够在不影响分类准确性的情况下有效削弱攻击者获得隐私敏感信息的能力。
Dec, 2018
本文提出一种带有隐私保护机制的视频动作识别模型,通过敌对训练来寻找能够最佳平衡目标任务性能与隐私保护程度的匿名转换方法,并给出了两种优化策略以实现对于攻击模型的普适隐私保护。同时,构建了一种全新的视频数据集PA-HMDB51,为视觉隐私研究提供了有力支持。
Jun, 2019
本文提出了一种对抗性重构学习框架,旨在学习一种以任务为导向的隐私保护表示,以防止模型反演攻击,采用负像素重构损失或负感知距离损失最小化来实现,展示了在面部属性预测任务中我们的方法可以在小幅度降低实用性的情况下保护视觉隐私,并提供了不同特征、任务和数据的广泛研究,以进一步分析它们对隐私保护的影响和效用-隐私权衡的关系。
Nov, 2019
本文研究了标准梯度下降算法的隐私保护版本DPSGD中归一化层的影响,证明了在带有噪声参数的深度神经网络中归一化层显著地影响着其效用,提出了一种新的方法将批归一化与DPSGD集成起来,以获得更好的效用-隐私权衡。
Jun, 2020
本文研究了隐私保护深度学习机制对于各种形式的隐私攻击的能力,提出了通过重构、追踪和成员攻击量化测量模型准确性和隐私损失之间的权衡,针对重构攻击提出了解决带有噪声的线性方程组的新颖方法,通过 SPN 技术解决了现有 PPDL 方法面临的隐私攻击对其构成的严重挑战,实验表明在数据隐私得到满意保护的情况下,模型的准确性平均提高了 5-20%。
Jun, 2020
本研究提出了一种基于对抗特征的面部隐私保护 (AdvFace) 方法,通过在对手模型中生成对抗性的潜在噪声来破坏从对抗性特征到面部图像的映射,生成隐私保护的对抗性特征来防御面部重建攻击。实验表明,AdvFace 在维护面部识别准确性的同时,比目前最先进的面部隐私保护方法更有效地防御重建攻击。
May, 2023
本研究解决了深度学习人脸识别系统带来的隐私风险,尤其是现有方法需依赖大规模化妆数据集所导致的弊端。通过提出一种在测试时优化未训练神经网络的创新方法,实现了从参考图像向源图像转移化妆风格,同时避免了男性和女性数据集偏见。实验结果表明,该方法在面部验证和识别任务中表现优越,且对商业人脸识别系统具有有效的保护效果。
Aug, 2024