本文研究了基于扩散的生成模型对成员隐私的攻击风险,提出了一种新的黑盒成员隐私攻击方法 SecMI,并通过对标准扩散模型和文本 - 图像扩散模型等不同数据的实验结果展示其高准确性。
Feb, 2023
本文研究生成扩散模型的会员推断攻击,通过提出一种公正的评估框架,发现之前提出的评估机制无法充分了解该问题的有效性,因此揭示了该攻击仍然是大型扩散模型的难点,难以保护相关的隐私和版权问题。
Jun, 2023
通过仅利用目标生成模型的生成分布和辅助非成员数据集,我们提出了对各种生成模型(如生成对抗网络、变分自编码器、隐式函数和新兴的扩散模型)的第一个广义成员推断攻击,验证了所有生成模型都对我们的攻击易受攻击,我们呼吁设计和发布生成模型时要注意此类隐私泄漏风险。
Oct, 2023
该研究介绍了一种新的会员推理攻击方法,针对稳定扩散计算机视觉模型,特别关注了由 StabilityAI 开发的高度复杂的稳定扩散 V2。我们的研究揭示了稳定扩散模型的输出存在的隐私漏洞,利用这些信息,我们设计了一种只需要反复查询受害模型的黑盒会员推理攻击方法。该研究对会员特征进行了多种测量,并讨论了最佳实践。通过 ROC AUC 方法评估了攻击的有效性,在推断会员信息方面成功率达到 60%。该论文对机器学习中的隐私和安全问题做出了贡献,并强调了对会员推理攻击实施强大防御措施的迫切性。我们的研究结果促使重新评估稳定扩散模型的隐私影响,并敦促从业者和开发者采取增强安全措施以防范此类攻击。
Nov, 2023
该论文通过对机器学习模型逐一评估,探究其在会员隐私方面存在的风险。研究表明,攻击模型的效果主要由数据驱动,受数据集的影响较大。在攻击过程中,抗攻击模型的选择和参与者的数量也是影响因素之一。最后,论文给出了相应的对策和缓解策略。
Jun, 2018
我们提出了一种使用知识蒸馏引导的黑盒神经网络成员推理攻击方法,并在多个图像分类数据集和模型上进行评估,证明了借助知识蒸馏的似然比攻击在黑盒设置下优于目前最先进的成员推理攻击。
May, 2024
本文研究了针对敏感数据的扩散模型的成员推理攻击,提出了基于损失和似然的两种攻击方法,并在各种隐私敏感数据相关的数据集上评估了攻击效果和影响攻击性能的因素。此外,还评估了我们攻击方法在差分隐私的扩散模型上的性能。
Jan, 2023
本文首次对机器学习中的成员推理攻击及其防御措施进行了全面调查,提供了攻击和防御的分类学及其优缺点,并指出了相关领域的研究限制和未来方向,为研究社区提供了参考。
Mar, 2021
我们应用最先进的成员推理攻击方法,系统地测试了对大型图像分类模型进行微调时的实际隐私漏洞,重点在于了解使其易受成员推理攻击的数据集和样本的特性。就数据集的特性而言,我们发现数据集中每个类别的示例数量与成员推理攻击的脆弱性之间存在强烈的幂律依赖性,通过攻击的真阳率在低假阳率下衡量。对于单个样本来说,在训练结束时较大的梯度与成员推理攻击的脆弱性存在强相关性。
Feb, 2024
本文研究了在考虑统计依赖性的情况下,Differentially Private 训练算法在 Membership Inference Attack 防御中的可行性,发现在存在依赖性的情况下,DP 无法提供有效保护。作者通过对离线对攻击的实验表明,数据样本之间的依赖关系严重影响了 Membership Inference Attack 的性能表现。
Oct, 2020