扩散模型的成员推断
本文研究了基于扩散的生成模型对成员隐私的攻击风险,提出了一种新的黑盒成员隐私攻击方法SecMI,并通过对标准扩散模型和文本-图像扩散模型等不同数据的实验结果展示其高准确性。
Feb, 2023
本研究首次系统性地就扩散模型的隐私问题进行了调查,并且提出了一种新的防御技术PriSampler以避免扩散模型被攻击者用于推理敏感训练数据集的属性。PriSampler不仅在防御效果方面表现出色,还在模型效用方面表现优异。
Jun, 2023
本文研究生成扩散模型的会员推断攻击,通过提出一种公正的评估框架,发现之前提出的评估机制无法充分了解该问题的有效性,因此揭示了该攻击仍然是大型扩散模型的难点,难以保护相关的隐私和版权问题。
Jun, 2023
基于离散扩散模型的数据生成方法的隐私保护能力在理论上进行了开拓性研究,重点研究了每个数据点的潜在隐私泄露,并通过数据预处理减少离散扩散模型生成的合成数据的隐私风险。同时,实验证实了理论研究结果对合成数据和真实世界数据的适用性。
Oct, 2023
该研究介绍了一种新的会员推理攻击方法,针对稳定扩散计算机视觉模型,特别关注了由StabilityAI开发的高度复杂的稳定扩散V2。我们的研究揭示了稳定扩散模型的输出存在的隐私漏洞,利用这些信息,我们设计了一种只需要反复查询受害模型的黑盒会员推理攻击方法。该研究对会员特征进行了多种测量,并讨论了最佳实践。通过ROC AUC方法评估了攻击的有效性,在推断会员信息方面成功率达到60%。该论文对机器学习中的隐私和安全问题做出了贡献,并强调了对会员推理攻击实施强大防御措施的迫切性。我们的研究结果促使重新评估稳定扩散模型的隐私影响,并敦促从业者和开发者采取增强安全措施以防范此类攻击。
Nov, 2023
通过引入生成模型,我们提出了一种新颖的防御框架来保护深度学习模型免受成员推断攻击,其中我们的防御方法在输入样本上工作,不需要修改目标模型的训练或推理阶段,从而在隐私性和模型效用之间取得新的最佳表现。
Dec, 2023
扩散模型具有高质量输出,但容易泄漏训练数据的具体信息,我们提出了成员推断攻击一文,通过量化回归模型预测训练集以外示例的重构损失分布,并使用自定义阈值在重构损失上进行假设检验,最终确定数据点是否属于训练集。我们还提供了简单的引导技术,通过多个弱攻击者的多数成员预测来提高准确性,相较于以往的攻击方法而言,我们的攻击方法计算成本低得多。
Dec, 2023
通过对扩散模型进行研究,本文从对手的角度评估了共享扩散模型可能带来的隐私和公平风险,并通过实验表明了强化数据审计和隐私保护协议在相关应用中的重要性。
Feb, 2024
本研究针对扩散模型的会员推断攻击(MIA)进行评估,揭示了现有 MIA 评估中的关键缺陷和过于乐观的性能估计。我们提出了 CopyMark,一种更为可靠的 MIA 基准,在更实际的条件下显示出当前 MIA 方法效果显著降低,表明目前的 MIA 不能可靠地识别在扩散模型中未经授权的数据使用。
Oct, 2024
本研究针对扩散模型在生成合成图像过程中的个人数据,特别是面部图像的未授权使用问题,提出了一种新的身份推断框架。该框架超越了传统的成员推断攻击,从身份层面对数据隐私侵犯进行了深入探讨,实验结果表明,其攻击成功率高达89%,并在不同模型上取得了显著的有效性验证。
Oct, 2024