图神经网络上的对抗型模型提取
本文提出了针对归纳图神经网络的模型盗窃攻击,定义了威胁模型并根据对手的背景知识和目标模型的响应提出了六种攻击方式。在六个基准数据集上的评估结果显示,该攻击方式取得了良好的性能表现。
Dec, 2021
该论文介绍了一种针对归纳式图神经网络的无监督模型窃取攻击的新方法,该方法基于图对比学习和谱图增强,通过从目标模型高效提取信息。在六个数据集上对该攻击进行了全面评估,结果表明该方法相较于现有的窃取攻击具有更高的效率,并在所有基准测试中优于基准测试,实现了更高的窃取模型的保真度和下游准确性,同时对目标模型发送的查询次数较少。
May, 2024
通过生成器人工策划的查询,对于第一次扩展到用于预测物体检测中的边界框坐标的回归问题的黑盒子攻击,提出了一个无数据模型提取技术,发现定义损失函数和使用新型生成器设置是提取目标模型的关键。所提出的模型提取方法通过合理的查询取得了显著的结果,该物体检测漏洞的发现将有助于未来保护这类模型的前景。
Aug, 2023
本文提出了 MEGEX,针对一种梯度可解释人工智能的数据自由模型提取攻击。攻击者使用解释结果来训练生成模型以减少查询次数,可以在不准备输入数据的情况下成功窃取训练好的模型。实验表明,在 SVHN 和 CIFAR-10 数据集上,给定 200 万和 2000 万个查询,我们提出的方法可以重构高准确度的模型,分别是受害模型准确度的 0.97 倍和 0.98 倍,这暗示着模型的可解释性和难以窃取之间存在折衷。
Jul, 2021
本研究提出了针对图神经网络的链路窃取攻击,并介绍了三个维度的威胁模型以及八种链路窃取攻击方法。在八个真实数据集上的实验表明,攻击是有效的,并揭示了 GNN 模型输出关于训练图结构的丰富信息,证明了在黑盒条件下,一些私密数据可以被窃取。
May, 2020
本文描述了一种新型机器学习模型抽取攻击的方法,并提出了一种名为 PRADA 的检测模型抽取攻击的方法,该方法可以准确检测到之前的模型抽取攻击,且无误报。
May, 2018
使用主动学习和大规模公共数据集的模型提取框架,可以通过黑盒访问从图像和文本领域的各种数据集中训练出的深度分类器,其中仅使用其 30%(30,000 个样本)的数据集。
May, 2019