- IPEval: 一种用于大规模语言模型的双语知识产权代理咨询评估基准
鉴于在知识产权领域中大型语言模型(LLMs)的快速发展,缺乏一种特定的评估基准来评估其理解、应用和推理能力,我们引入了 IPEval,这是第一个为知识产权机构和咨询任务量身定制的评估基准。IPEval 包括 2657 个多项选择题,涵盖了知 - PatentGPT:一个大规模的知识产权语言模型
应用大型语言模型在知识产权领域具有挑战性,本研究提出了一种低成本、标准化的过程来训练面向知识产权的语言模型,成功满足了该领域的需求,并证明了在知识产权领域中专门训练的模型的有效性。
- 高度可配置数字设计的高效配置覆盖的半正式验证方法
使用半形式验证方法对高度可配置的数字设计进行高覆盖率配置覆盖的研究
- CVPRMAP:面向源码自由的模型知识产权保护的 MAsk-Pruning
基于深度学习模型的知识产权保护问题,本研究提出了一种新颖的 MAsk Pruning(MAP)框架,通过冻结源模型,并学习目标特定的二进制掩模来实现未授权数据使用的防护,同时最小化对授权数据的性能降低,实验证明该方法在多种场景下达到了新的最 - PRSA:大型语言模型的提示反窃取攻击
通过分析输入 - 输出对的关键特征,在商业 LLM 中针对 prompt 反向窃取设计了一种新的攻击框架,名为 PRSA,从而构成了一个严重的潜在威胁。
- EmMark:用于嵌入式量化大型语言模型的强韧水印保护知识产权
EmMark 是一种保护资源受限边缘设备上嵌入式大型语言模型的知识产权的新型水印框架,通过查询水印模型权重和匹配插入的签名来验证所有者身份,通过选择策略性的水印权重参数,在保持模型质量的同时确保稳健性。通过对 OPT 和 LLaMA-2 系 - MoZIP:知识产权中评估大型语言模型的多语言基准
本文提出了第一个以知识产权领域为基础的多语言方向智能产权测验(MoZIP),用于评估大语言模型在知识产权领域中的表现;实验证明,所提出的 MoZi 模型在 MoZIP 基准上表现优于 BLOOMZ、BELLE 和 ChatGLM,但仍低于 - 生成模型即自含水印:透过再生成声明模型认证
通过重新生成的方法,我们提出一种可解释的数据所有权验证程序,能够识别潜在指纹,并通过迭代数据再生增强生成模型中的指纹。此方法不仅保护 API 的知识产权,还解决了信息传播和学术不端等重要问题,确保信息源的完整性和作者身份的真实性。
- 一个具有可证明保证的鲁棒且灵活的即插即用水印框架用于 AI 生成的图像
本文介绍了一个名为 RAW 的稳健而灵活的即插即用水印检测框架,它将可学习的水印直接引入原始图像数据中,并使用与水印共同训练的分类器来检测水印的存在。此框架在各种生成架构上可兼容,并支持训练后即时进行水印注入,通过整合最先进的平滑技术,不仅 - 大型语言模型的教学指纹
大规模语言模型的高昂训练成本使指纹识别模型保护知识产权成为必要,同时确保下游用户和开发者遵守许可条款,本研究提出了一种针对语言模型的指纹识别的试点研究,作为一种非常轻量级的指令调整,以提供模型许可者的身份验证,然而仅在密钥存在时才使语言模型 - EncryIP: 模型知识产权保护的实用加密框架
在快速发展的数字经济中,保护与数字产品相关的知识产权变得越来越重要。本文介绍了一种名为 EncryIP 的实用基于加密的框架,它将公钥加密方案无缝集成到模型学习过程中。这种方法使得受保护的模型能够产生随机和混淆的标签,确保只有具备正确秘钥的 - 从零到英雄:通过合成数据注入和模型查询检测泄露数据
为了保护数据的知识产权,在机器学习应用日益增多、且其成功与训练数据的质量密切相关的背景下,缺乏对未经授权的模型训练过程泄露数据的检测机制。本文针对表格数据领域,引入了一种名为局部分布偏移合成(LDSS)的新方法来检测训练分类模型所使用的泄露 - WASA:大规模语言模型生成数据的基于水印的来源追溯
本文提出了一种基于水印技术的框架,名为 WASA,该框架可以通过给合成文本嵌入包含信息的水印来解决大语言模型产生的合成文本可能侵犯训练数据知识产权的问题,并且可以实现准确的数据来源归属和数据溯源。经过大量的实证评估,WASA 框架显示其能够 - VeriDIP: 通过隐私泄漏指纹验证深度神经网络的所有权
使用 VeriDIP 方法验证深度学习模型的知识产权,通过成员推断攻击估计隐私泄露下界并提高所有权验证性能。
- 图像专利检索的高效表示学习
基于专利绘图图像的特征,本文提出了一个简单轻量级的模型,用于专利检索,在大规模基准测试上表现显著优于其他方法,均值平均精度(mAP)得分提高了 33.5%,进一步实验证明此模型能够精确扩展以达到惊人的 93.5% 的 mAP,此方法在 EC - 建立负责任且可靠的大型语言模型的关键
本文探讨了如何通过引入引用机制来降低大型语言模型的知识产权和伦理问题,提高内容的透明度和可验证性。
- 生成对抗网络的所有权保护
提出了一种基于目标模型及其盗版模型共同特征的新型所有权保护方法,无需重新训练目标模型,能够有效抵御现有模型提取攻击和自适应攻击,并在实验中取得了最佳保护效果。
- 通过最后层反演进行单模型归因
本研究提出一种基于 final-layer inversion 和异常检测的 FLIPAD 方法,用于开放世界条件下的单模型归因,以证明知识产权的盗窃。该方法在理论上具有可行性和计算效率,并且在实验中表现优于现有方法。
- 机器遗忘:它的本质、范围和在 “删除文化” 中的重要性
本文探讨数字化时代从信息记录到删除的文化转变及其对隐私、知识产权以及 ChatGPT 等大型语言模型的影响。文章提出了删除、屏蔽和机器遗忘等解决策略,并强调机器遗忘领域的潜在应用价值及其道德风险。
- 通过隐形水印保护语言生成模型
提出 GINSEW 方法以保护文本生成模型免受窃取,通过在目标令牌的解码步骤的概率向量中注入秘密信号,并在疑犯模型中检测秘密信息,GINSEW 可以有效地识别知识产权侵权的实例,表现出比之前的方法对抗去除水印攻击有 19 至 29 点的平均