该研究提出了一种轻量级、强健、安全的黑盒 DNN 数字水印协议,在训练期间注入任务特定的键图像 - 标签对,并证明该模型的所有权,从而提供保护同时保持适当的安全性和强健性。
Jun, 2022
本论文研究了深度神经网络的数字水印技术并提出了黑盒和白盒的攻击方法,证明了该水印方案的不安全性,并指出需要一些其他技术来保护免受攻击。
Jun, 2019
该研究提出了一种黑匣子形式的深度神经网络水印方案,该方案适用于一般的分类任务,并可以轻松与当前的学习算法相结合。研究表明,这样的水印对于模型的主要任务没有明显的影响,并且评估了该提议的鲁棒性,以抵御广泛的实际攻击。
Feb, 2018
本文提出了一种基于深度学习神经网络的鲁棒盲水印方案,该方案实现了自适应图像水印算法,无需人工干预和注释,并且不需要事先了解敌对攻击的有关信息,实验证明了该方案的优越性。
Jul, 2020
通过使用不同的技术,DeepEclipse 能够有效破解多个白盒水印技术,同时保持与原始模型类似的准确性,从而为解决深度神经网络水印保护和去除的挑战提供了有希望的解决方案。
Mar, 2024
本文提出了一种神经网络 “洗涤” 算法,可以即使在对水印结构没有先前知识的情况下,从神经网络中移除黑盒后门水印,有效消除了现有防御和版权保护机制使用的水印,并证明现有的后门水印不足以达到其声称的要求。
Apr, 2020
本文通过对 DNN 水印方案进行评估,发现目前的水印方案在实践中都不够稳健,需要通过更加全面的攻击评估来提高稳健性。
Aug, 2021
本文提出了一种深度神经网络数字水印技术,可用于深度神经网络的所有权授权。我们定义了嵌入深度神经网络数字水印的要求、嵌入情况和攻击类型,并提出了一种嵌入参数规则器的通用框架,最后通过实验证明我们的框架可以在深度神经网络的训练中嵌入数字水印,并在精调和参数修剪后保留所有权编码。
提出一种新颖的多位无盒水印方法,用于保护生成对抗网络的知识产权,对于微调、修剪、量化和替代模型攻击具有改进的鲁棒性。通过在生成对抗网络训练过程中添加额外的水印损失项来嵌入水印,保证由生成对抗网络生成的图像中包含可由预训练的水印解码器恢复的不可见水印。为了提高抗白盒模型级攻击的鲁棒性,确保模型收敛到水印损失项的宽平坦最小值,使得模型参数的任何修改都不会擦除水印。该方法对架构和数据集不具有依赖性,因此适用于许多不同的生成任务和模型,以及基于 CNN 的图像处理架构。通过广泛的实验结果表明,水印的存在对生成的图像质量几乎没有影响,并证明了水印对模型修改和替代模型攻击的卓越鲁棒性。
Oct, 2023
本研究关注深度神经网络的水印方案的稳健性和可靠性,发现恶意对手即使在水印难以删除的情况下,仍然可以逃避合法所有者的验证,从而避免了模型被盗的可能性。
Sep, 2018