本文基于深度学习和神经网络的高效和有效性,提出了一种基于后门水印的数据集保护模式,其中数据集水印包括数据集水印和数据集验证,实验证明了该方法的有效性。
Aug, 2022
本文提出了一种基于后门嵌入的数据集水印方法,通过数据集水印和数据集验证两个主要流程保护开源的图像分类数据集,验证了该方法的有效性。
Oct, 2020
设计了一种基于 DNNs 的领域水印保护方法,通过域生成及水印验证的方法实现对开源数据集版权的保护。
Oct, 2023
本研究提出了一种基于后门的数字水印方法,可保护公开可用的数据集免受非法使用,使用仅占数据集样本极小比例的水印样本,且不影响原有任务性能,提高了数据保护的隐蔽性和有效性。
Mar, 2023
本文介绍了一种基于小样本数据的去水印方法,使用数据增强和特征空间中正常和扰动数据的分布对齐相结合,有效地去除深度模型中的水印,并不影响深度模型性能。
Aug, 2020
本论文研究了深度神经网络的数字水印技术并提出了黑盒和白盒的攻击方法,证明了该水印方案的不安全性,并指出需要一些其他技术来保护免受攻击。
Jun, 2019
本文提出了一种神经网络 “洗涤” 算法,可以即使在对水印结构没有先前知识的情况下,从神经网络中移除黑盒后门水印,有效消除了现有防御和版权保护机制使用的水印,并证明现有的后门水印不足以达到其声称的要求。
Apr, 2020
该研究提出了一种黑匣子形式的深度神经网络水印方案,该方案适用于一般的分类任务,并可以轻松与当前的学习算法相结合。研究表明,这样的水印对于模型的主要任务没有明显的影响,并且评估了该提议的鲁棒性,以抵御广泛的实际攻击。
Feb, 2018
训练高性能深度神经网络需要大量的数据和计算资源。保护深度模型的知识产权和商业所有权具有挑战性但又越来越重要。本研究提出了一种安全而稳健的基于后门的水印注入技术,利用单个超出分布图像的多样知识作为知识产权验证的秘密密钥。该技术不仅在没有训练数据的情况下快速高效,而且对抵抗水印去除攻击具有鲁棒性。
Sep, 2023
深度神经网络的水印技术存在被移除的漏洞,本文通过研究参数空间,提出了一种寻找并恢复水印行为的强化模型水印技术,实验证明该方法提高了模型水印技术对参数变化和多种移除攻击的鲁棒性。