本文基于深度学习和神经网络的高效和有效性,提出了一种基于后门水印的数据集保护模式,其中数据集水印包括数据集水印和数据集验证,实验证明了该方法的有效性。
Aug, 2022
本研究提出了一种基于后门的数字水印方法,可保护公开可用的数据集免受非法使用,使用仅占数据集样本极小比例的水印样本,且不影响原有任务性能,提高了数据保护的隐蔽性和有效性。
Mar, 2023
通过引入非目标型背门水印方案,该研究探讨了数据集所有权的验证问题,并在多个数据集上验证了其方法的有效性和鲁棒性。
Sep, 2022
训练高性能深度神经网络需要大量的数据和计算资源。保护深度模型的知识产权和商业所有权具有挑战性但又越来越重要。本研究提出了一种安全而稳健的基于后门的水印注入技术,利用单个超出分布图像的多样知识作为知识产权验证的秘密密钥。该技术不仅在没有训练数据的情况下快速高效,而且对抵抗水印去除攻击具有鲁棒性。
Sep, 2023
本文介绍了一种基于小样本数据的去水印方法,使用数据增强和特征空间中正常和扰动数据的分布对齐相结合,有效地去除深度模型中的水印,并不影响深度模型性能。
Aug, 2020
本论文研究了深度神经网络的数字水印技术并提出了黑盒和白盒的攻击方法,证明了该水印方案的不安全性,并指出需要一些其他技术来保护免受攻击。
Jun, 2019
设计了一种基于 DNNs 的领域水印保护方法,通过域生成及水印验证的方法实现对开源数据集版权的保护。
Oct, 2023
提出了一种名为 Spy-Watermark 的新型后门攻击方法,其中引入了一种可学习的图像潜在空间中嵌入的水印作为触发器,通过多个防崩溃操作进一步增强触发器对数据损坏的韧性,从而在面对数据崩溃和后门防御时仍然有效。在 CIFAR10、GTSRB 和 ImageNet 数据集上进行了大量实验,展示了 Spy-Watermark 在鲁棒性和隐秘性方面超过了十种最先进方法。
Jan, 2024
本研究关注深度神经网络的水印方案的稳健性和可靠性,发现恶意对手即使在水印难以删除的情况下,仍然可以逃避合法所有者的验证,从而避免了模型被盗的可能性。
Sep, 2018
该研究提出了一种黑匣子形式的深度神经网络水印方案,该方案适用于一般的分类任务,并可以轻松与当前的学习算法相结合。研究表明,这样的水印对于模型的主要任务没有明显的影响,并且评估了该提议的鲁棒性,以抵御广泛的实际攻击。
Feb, 2018