Dec, 2023

模型窃取攻击对图分类的真实性、不确定性和多样性

TL;DR最近的研究表明,GNN 对于模型盗取攻击是脆弱的,而这种攻击是通过查询许可来复制目标模型的阴险行为。然而,这些研究主要关注节点分类任务,忽视了在图分类任务领域所带来的潜在威胁。此外,它们的可行性令人质疑,因为涉及了大量的数据需求和广泛的模型知识。为此,我们倡导遵循严格的设置,通过有限的真实数据和硬标签意识来生成合成数据,从而便于盗取目标模型。具体地,我们遵循重要的数据生成原则,引入了三种模型盗取攻击方法,以适应不同的实际场景:MSA-AU 受主动学习的启发,强调不确定性以增强生成样本的查询价值;MSA-AD 基于 Mixup 增强策略引入多样性,以减轻 MSA-AU 生成的过于相似样本所导致的查询效率问题;MSA-AUD 结合了上述两种策略,无缝地整合了生成样本的真实性、不确定性和多样性。最后,广泛的实验证明了所提方法在隐藏性、查询效率和盗取性能方面的优越性。