针对文本生成图像模型广泛应用于编辑和创建高质量图片而导致的潜在恶意篡改和Deepfake制作问题,本论文讨论使用不可感知的干扰来保护图片的有效性,强调稳健性在防御JPEG压缩攻击的重要性,并提出其他保护图片的替代方案。
Apr, 2023
利用扩散自编码器生成的加密人脸图像,提高了对抗攻击的成功率并提升了视觉质量。
May, 2023
本文提出了一种针对Diffusion Model的保护图像的方法,通过生成样本特定的扰动噪声使训练数据难以被Diffusion Model学习,以此保护隐私和版权。
Jun, 2023
本文研究生成扩散模型的会员推断攻击,通过提出一种公正的评估框架,发现之前提出的评估机制无法充分了解该问题的有效性,因此揭示了该攻击仍然是大型扩散模型的难点,难以保护相关的隐私和版权问题。
通过引入名为IMPRESS的扰动净化平台,我们评估了不易察觉的扰动作为一种保护措施的有效性,并提供了对几种现代保护方法的全面评估,同时可作为未来保护方法的评估平台。
Oct, 2023
该研究介绍了一种新的会员推理攻击方法,针对稳定扩散计算机视觉模型,特别关注了由StabilityAI开发的高度复杂的稳定扩散V2。我们的研究揭示了稳定扩散模型的输出存在的隐私漏洞,利用这些信息,我们设计了一种只需要反复查询受害模型的黑盒会员推理攻击方法。该研究对会员特征进行了多种测量,并讨论了最佳实践。通过ROC AUC方法评估了攻击的有效性,在推断会员信息方面成功率达到60%。该论文对机器学习中的隐私和安全问题做出了贡献,并强调了对会员推理攻击实施强大防御措施的迫切性。我们的研究结果促使重新评估稳定扩散模型的隐私影响,并敦促从业者和开发者采取增强安全措施以防范此类攻击。
Nov, 2023
最近扩展模型对图像生成的真实性产生了深远的影响,但这引发了版权侵权的担忧。为了解决这个问题,本研究开发了一种视觉改进的保护方法,既保留了保护能力,又提高了受保护图像的质量。
Mar, 2024
通过对视觉编码器的操作,提出了名为Prompt-Independent Defense(PID)的简单而有效的方法,以保护数据免受Latent Diffusion Models(LDMs)的侵害,并显著减少计算资源的需求。
Jun, 2024
本研究解决了个性化概念生成中关于隐私和知识产权的法律和伦理问题。提出的视觉友好概念保护框架(VCPro)通过降低可见性来保护图像所有者选择的关键概念,通过Lagrangian乘数法找到最不显眼但有效的对抗扰动,实验结果表明,VCPro在可见性与保护有效性之间达成了更好的平衡。
Aug, 2024
本研究解决了定制扩散模型中存在的隐私泄露和艺术作品未经授权复制等风险,提出了一种无提示对抗扰动(PAP)方法。这种方法通过拉普拉斯近似建模提示分布,并基于建模分布最大化扰动期望,显著提高了对抗攻击的防御稳定性,在人脸隐私和艺术风格保护方面表现出优越的泛化能力。