Nov, 2023

稳定扩散模型中的隐私威胁

TL;DR该研究介绍了一种新的会员推理攻击方法,针对稳定扩散计算机视觉模型,特别关注了由 StabilityAI 开发的高度复杂的稳定扩散 V2。我们的研究揭示了稳定扩散模型的输出存在的隐私漏洞,利用这些信息,我们设计了一种只需要反复查询受害模型的黑盒会员推理攻击方法。该研究对会员特征进行了多种测量,并讨论了最佳实践。通过 ROC AUC 方法评估了攻击的有效性,在推断会员信息方面成功率达到 60%。该论文对机器学习中的隐私和安全问题做出了贡献,并强调了对会员推理攻击实施强大防御措施的迫切性。我们的研究结果促使重新评估稳定扩散模型的隐私影响,并敦促从业者和开发者采取增强安全措施以防范此类攻击。