本文研究了在考虑统计依赖性的情况下,Differentially Private 训练算法在 Membership Inference Attack 防御中的可行性,发现在存在依赖性的情况下,DP 无法提供有效保护。作者通过对离线对攻击的实验表明,数据样本之间的依赖关系严重影响了 Membership Inference Attack 的性能表现。
Oct, 2020
本文提出了一种名为 “判别性对抗隐私”(DAP)的新型学习技术,该技术通过达到模型性能、速度和隐私之间的平衡来解决 DP 的局限性。DAP 依靠对抗训练,基于一种新的损失函数,该函数能够最小化预测误差并最大化 MIA 的误差。此外,我们引入了一种名为 “准确性隐私权”(AOP)的新指标来捕捉性能 - 隐私权衡。最后,为了验证我们的观点,我们将 DAP 与不同的 DP 情景进行比较,并从性能、时间和隐私保护角度分析结果。
Jun, 2023
介绍了一种隐私机制,用于训练机器学习模型以保证隐私,并使用敌对训练算法最小化模型的分类损失和最大的成员推断攻击,从而提高模型的鲁棒性和泛化性能,该机制在深度神经网络上的测试结果表明,可以在可接受的分类误差下显著降低成员推断攻击的风险。
Jul, 2018
我们应用最先进的成员推理攻击方法,系统地测试了对大型图像分类模型进行微调时的实际隐私漏洞,重点在于了解使其易受成员推理攻击的数据集和样本的特性。就数据集的特性而言,我们发现数据集中每个类别的示例数量与成员推理攻击的脆弱性之间存在强烈的幂律依赖性,通过攻击的真阳率在低假阳率下衡量。对于单个样本来说,在训练结束时较大的梯度与成员推理攻击的脆弱性存在强相关性。
Feb, 2024
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
探索深度学习模型对隐私泄露的影响及规避方法,并评估不同正则化机制对防御成员推理攻击的有效性与隐私保护性。
Jun, 2020
该论文通过利用差分隐私(DP)进行模型训练,探索模型曾经训练过的数据样本是否存在于模型中。该方法提出了具有实际强度的适用于广泛使用的高斯机制,并提供了一种新的关于弱隐私保护下成员推断攻击的理论界的计算方法。作者在 CIFAR10 数据集上的实验表明,该方法具有领先于最佳的成员推断界。
Apr, 2022
通过引入生成模型,我们提出了一种新颖的防御框架来保护深度学习模型免受成员推断攻击,其中我们的防御方法在输入样本上工作,不需要修改目标模型的训练或推理阶段,从而在隐私性和模型效用之间取得新的最佳表现。
Dec, 2023
本文研究了针对敏感数据的扩散模型的成员推理攻击,提出了基于损失和似然的两种攻击方法,并在各种隐私敏感数据相关的数据集上评估了攻击效果和影响攻击性能的因素。此外,还评估了我们攻击方法在差分隐私的扩散模型上的性能。
Jan, 2023
我们提出了一种使用知识蒸馏引导的黑盒神经网络成员推理攻击方法,并在多个图像分类数据集和模型上进行评估,证明了借助知识蒸馏的似然比攻击在黑盒设置下优于目前最先进的成员推理攻击。
May, 2024