通过分析 AI 图像检测方法,研究了水印技术以及基于分类器的深度伪造检测器的强大性,发现在扰动预算较低的情况下,扩散纯化攻击能够有效地去除水印,而对于图像有明显更改的高扰动水印方法,我们开发了一种模型替换对抗攻击来成功去除水印。同时发现水印技术容易受到欺骗攻击,对开发者的声誉造成损害,并通过实验表明分类器的鲁棒性和可靠性之间存在基本的权衡关系。
Sep, 2023
利用扩散模型为防止未授权模型分发而合成无限制对抗样本作为触发器集合,通过知识注入而非错误记忆来促进独特的水印行为,并通过优化受保护模型的知识传递属性,无需过于猛烈的决策边界扰动即可将水印行为传递给提取替代物,从而提高对于逃避对手和水印清除攻击的鲁棒性。
Apr, 2024
针对无盒模型数字水印技术,本研究揭示其易受删除攻击,并提出了一种基于梯度的 EG 还原器、一种基于对手攻击的 EG 还原器以及一种基于私有代理模型的可转移还原器,这些还原器能够成功去除嵌入水印且保持图像质量,实验证明这种攻击的有效性和泛化性,并呼吁进一步研究。
May, 2024
本文提出了一种新颖的水印去除攻击方法,能够有效和盲目地破坏水印模型对水印样本的记忆,实现了水印去除,并且提出了一种轻量级的微调策略,以提升模型性能和现有水印的鲁棒性。
Sep, 2020
利用生成性神经网络和深度水印技术对生成内容进行了知识产权保护研究,通过引入可转移攻击来评估深度水印的脆弱性,发现通过针对目标类的高样本密度区域进行样本干扰有助于提高有针对性的攻击转移率,在模型的输出一致性上定义了局部样本密度的概念,并引入了容易样本选择机制和容易样本匹配攻击方法,同时还提出了信息瓶颈理论集成的瓶颈增强混合方法,通过实验证明了针对转移攻击的成功率在提高。
Feb, 2024
本文通过对 DNN 水印方案进行评估,发现目前的水印方案在实践中都不够稳健,需要通过更加全面的攻击评估来提高稳健性。
Aug, 2021
本篇研究提出了将图像水印技术和对抗样本算法结合在一起生成一种新的对抗扰动 ——Adv-watermark,并且使用一种新的优化算法 Basin Hopping Evolution (BHE) 生成黑盒攻击模式下的对抗性水印,该方法比其他攻击方法更为高效和鲁棒。
Aug, 2020
本论文研究了深度神经网络的数字水印技术并提出了黑盒和白盒的攻击方法,证明了该水印方案的不安全性,并指出需要一些其他技术来保护免受攻击。
Jun, 2019
使用水印技术可以标记生成内容并通过隐藏信息检测其真实性,我们通过定义目标函数并将自适应攻击作为优化问题来解决水印算法的鲁棒性评估问题,研究发现可在图像质量几乎不降低的情况下破解所有五种受测水印方法,强调了对适应性、可学习的攻击者进行更严格的鲁棒性测试的必要性。
提出了一种新的数字水印方法,基于深度学习的 HiDDeN 架构,并添加了与几何攻击鲁棒性相关的新噪声层,证明该方法在几何鲁棒性方面胜过现有的技术,可用于保护消费者设备上查看的图像。