深度知识产权:一项调查
深度学习模型的知识产权保护引发了越来越多的关注。本文着重介绍了一种名为主动版权保护的新型知识产权保护方法,对 DNN 模型的主动授权控制和用户身份管理进行了研究和分析,并提出了潜在的攻击方式以及该领域面临的挑战和未来方向。此综述对于系统介绍主动 DNN 版权保护领域是有帮助的,并为后续工作提供了参考和基础。
Oct, 2023
本研究提出了一种基于盲水印的知识产权保护(IPP)框架,通过将特定标签赋予普通样本并将其与独占标志组合生成水印来保护深度神经网络模型的知识产权,并成功验证了其安全性、可行性和鲁棒性,与创建者身份建立了明确的联系,有效应对了逃避攻击和恶意主张的问题。
Mar, 2019
本文提出了一种以门控概念为基础的实用方法来保护循环神经网络 (RNN) 的知识产权,通过设计模型训练方案的方式来确保受保护的 RNN 模型只有在提供了真实密钥的情况下能够保持其原始性能,并在各种 RNN 变体的白盒和黑盒保护方案中展示了我们的保护方案的强韧性和有效性。
Oct, 2022
本研究提出 DeepSigns 方法,一种全新的用于深度学习模型中数字水印插入的知识产权保护框架,旨在保护模型构建者的竞争优势,并且方法能在模型压缩、模型微调和数字水印覆盖等多种情况下承受各种攻击。
Apr, 2018
对机器学习中的知识产权保护进行了系统研究,建立威胁模型,将攻击和防御措施分类在一个统一且综合的分类法中,从而弥合机器学习和安全社区之间的研究。
Apr, 2023
本文提出了一个黑盒和白盒设置的完整保护框架,对 GAN 进行知识产权保护,以抵御恶意的复制、分享和重新分发。实证分析表明,该方法不会影响原始 GAN 的性能,同时能够抵御嵌入式水印的删除和模糊攻击。
Feb, 2021
本文提出了 IPGuard 方法,它通过数据指纹来保护深度神经网络分类器的知识产权,并且不会牺牲分类器的准确性,相比于现有的数字水印技术具有更好的保护效果。
Oct, 2019
本研究提出了一种名为池化分组会员推断(PMI)的新技术,旨在保护深度神经网络(DNN)模型的知识产权。PMI 并不改变给定 DNN 模型的网络参数,也不通过一系列精心设计的触发样本进行微调,而是通过推断哪个小型数据集曾用于训练目标 DNN 模型来确定 DNN 模型的所有权。实验也展示了这项工作的优越性和适用性。
Sep, 2022
本文提出了一种利用 S - 盒进行加密的轻量级密钥锁定方案 Deep-Lock,该方案可防止深度神经网络(DNN)模型的未授权使用和知识产权盗窃,并且不需要对 DNN 模型的结构和训练进行调整,具有较强的保密性和抗篡改能力。
Aug, 2020