图神经网络上的硬标签黑盒节点注入攻击
本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022
该研究提出了优化方法和模型:一个针对单节点注入攻击的优化方案,以及一个通用的针对节点注入的模型 (G-NIA),实验表明 G-NIA 模型在攻击效率和攻击性能两方面表现优异。
Aug, 2021
提出了一种基于强化学习的无梯度通用对抗攻击方法,称为 G$^2$-SNIA,它可以开展黑盒回避攻击并仅注入单个恶意节点至目标节点来操纵其分类结果,优于现有最先进的基线。
May, 2023
本研究针对图神经网络的黑盒节点插入攻击问题,提出了基于强化学习框架的渐进式无梯度节点插入攻击方法,并通过对八个基准数据集的广泛实验表明其在攻击效率和攻击成功率方面均优于现有攻击方法。
Nov, 2022
在现实世界中的图应用中,攻击者往往会注入有害节点以降低分类性能,本文提出了一种基于增强学习的节点注入中毒攻击方法 NIPA,并在多个基准数据集上进行了实验,证明了其相对于现有最先进方法的卓越性能。
Sep, 2019
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本文提出一种用于图神经网络的对抗攻击方法 GANI,通过注入虚假节点以达到攻击的目的,在结构和特征领域中进行不可察觉的扰动,通过基于遗传算法的统计信息确定新注入节点的度和生成特征并选择邻居节点,该方法在针对基准数据集和防御 GNN 的实验中展现出强大的攻击性和相对不可察觉性的优强表现。
Oct, 2022
本论文介绍了 HyperAttack-- 第一个针对超图神经网络的白盒子对抗攻击框架,提高了攻击成功率和时间效率,作为一种结构攻击方法,通过扰乱向目标节点连接的超边状态,并引导梯度和集成梯度。
Feb, 2023