非可传递学习:模型所有权验证和适用性授权的新方法
本研究介绍了一种旨在提高深度神经网络(DNN)中数字水印鲸吞强度的方法,该方法称为空嵌入(null embedding),通过对模型进行初始训练,我们建立了模型分类精确度与水印之间的强关系,使攻击者无法通过调整或增量训练来移除嵌入式数字水印,并且可以避免第三方嵌入“盗版数字水印”以索取模型所有权的情况。
Oct, 2019
本文提出了SSLGuard——首个用于对预训练编码器进行水印的方案,并使用影子训练技术来保护水印免受模型盗窃等攻击。实验证明,SSLGuard能有效地进行水印注入和验证,并对模型盗窃及其他攻击具有鲁棒性。
Jan, 2022
本研究提出了FedTracker——第一个FL模型保护框架,其采用全局水印和本地指纹分别验证全局模型的所有权以及追溯模型背后的罪犯。结果表明,FedTracker在验证、追溯、保真度和鲁棒性方面是有效的。
Nov, 2022
为了保护数据的知识产权,在机器学习应用日益增多、且其成功与训练数据的质量密切相关的背景下,缺乏对未经授权的模型训练过程泄露数据的检测机制。本文针对表格数据领域,引入了一种名为局部分布偏移合成(LDSS)的新方法来检测训练分类模型所使用的泄露数据。LDSS通过向拥有者的数据集注入一小部分具有局部类别分布偏移的合成数据,通过仅使用模型查询即可有效识别出训练于泄露和修改数据集的模型,且LDSS与朴素贝叶斯、决策树和随机森林等各种分类模型都兼容。在五个真实世界数据集上对七种分类模型进行了广泛实验,全面结果证实了LDSS的可靠性、稳健性、保真性、安全性和效率性。
Oct, 2023
深度学习模型的知识产权保护引发了越来越多的关注。本文着重介绍了一种名为主动版权保护的新型知识产权保护方法,对DNN模型的主动授权控制和用户身份管理进行了研究和分析,并提出了潜在的攻击方式以及该领域面临的挑战和未来方向。此综述对于系统介绍主动DNN版权保护领域是有帮助的,并为后续工作提供了参考和基础。
Oct, 2023
ClearMark是第一种设计用于直观人工评估的DNN水印方法,通过在模型参数中嵌入可见水印,以允许人工决策,同时允许技术辅助评估。相较于现有的水印方法,ClearMark生成的可视化水印易于人类理解,无需复杂的验证算法或严格的阈值。水印嵌入在所有模型参数中,与主要任务交织在一起,表现出卓越的鲁棒性。ClearMark在四个数据集和七种架构的综合研究中证明了其在不同模型和数据集上的普适性和对抗模型篡改的强韧性。
Oct, 2023
通过重新生成的方法,我们提出一种可解释的数据所有权验证程序,能够识别潜在指纹,并通过迭代数据再生增强生成模型中的指纹。此方法不仅保护API的知识产权,还解决了信息传播和学术不端等重要问题,确保信息源的完整性和作者身份的真实性。
Feb, 2024
模型版权的关键问题是所有权验证和水印技术,目前的基于后期方法是通过检查是否具有特定属性来识别可疑的第三方模型是否被盗窃。本文提出了一种新的基于可解释人工智能的水印技术,通过嵌入特征归属的解释中的验证行为来解决现有方法的限制。
May, 2024
本研究解决了保护AI模型所有权的有效版权保护措施的需求。提出了一种创新的代理学习方法,旨在提高水印的可靠性和模型性能,尤其是在对抗攻击的背景下。实验结果显示,这些方法显著提升了水印模型的安全性和性能,具有潜在的广泛影响。
Sep, 2024
本研究针对当前机器学习模型水印技术的脆弱性,特别是基于后门的水印嵌入方法,进行了深入探讨。通过信息论分析,揭示了水印抵御攻击的关键在于触发样本的选择,并提出了一种新颖的水印嵌入方案,以增强现有方法的抗攻击能力。实验结果显示,该方法在保持高效性的同时,对各种攻击具有良好的防御能力。
Sep, 2024