提出了一种基于强化学习的无梯度通用对抗攻击方法,称为 G$^2$-SNIA,它可以开展黑盒回避攻击并仅注入单个恶意节点至目标节点来操纵其分类结果,优于现有最先进的基线。
May, 2023
本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022
本文提出一种用于图神经网络的对抗攻击方法 GANI,通过注入虚假节点以达到攻击的目的,在结构和特征领域中进行不可察觉的扰动,通过基于遗传算法的统计信息确定新注入节点的度和生成特征并选择邻居节点,该方法在针对基准数据集和防御 GNN 的实验中展现出强大的攻击性和相对不可察觉性的优强表现。
Oct, 2022
该研究提出了第一种针对图神经网络的非目标黑盒节点注入攻击方法,通过限制优化过程来实现节点注入攻击,并在三个数据集上评估攻击的性能。
Nov, 2023
本文研究了图神经网络受到注入攻击威胁的拓扑漏洞,在此基础上提出了一种效果显著的注入攻击方法 ——TDGIA,通过拓扑缺陷边选择策略和平滑特征优化目标生成虚假节点特征,对防御 GNN 模型进行攻击并成功超过多种攻击基准。
Jun, 2021
本研究针对图神经网络的黑盒节点插入攻击问题,提出了基于强化学习框架的渐进式无梯度节点插入攻击方法,并通过对八个基准数据集的广泛实验表明其在攻击效率和攻击成功率方面均优于现有攻击方法。
Nov, 2022
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021
尽管图神经网络(GNNs)在与图相关的任务中展示出了显着的能力,但最近的研究揭示了 GNNs 在面对恶意对抗攻击时的公平性漏洞。然而,所有现有的公平性攻击都需要操纵现有节点之间的连接,在现实中可能是被禁止的。为此,我们提出了一种基于节点注入的公平性攻击(NIFA),在更现实的情况下探索了 GNN 公平性的漏洞。 NIFA 首先为节点注入操作设计了两个有见地的原则,即不确定性最大化原则和同质性增加原则,然后优化注入节点的特征矩阵,以进一步确保公平性攻击的有效性。对三个真实世界数据集的综合实验一致表明,NIFA 可以通过仅注入 1%的节点显着破坏主流 GNNs 的公平性,甚至包括关注公平性的 GNNs。我们真诚希望我们的工作能引起研究人员对 GNN 公平性漏洞的更多关注,并鼓励相应防御机制的开发。
Jun, 2024
本研究针对图神经网络的隐私攻击风险展开了首个综合性的分析,提出并验证了三种攻击方法,并探究了两种防御机制的实用性。
Feb, 2021
在现实世界中的图应用中,攻击者往往会注入有害节点以降低分类性能,本文提出了一种基于增强学习的节点注入中毒攻击方法 NIPA,并在多个基准数据集上进行了实验,证明了其相对于现有最先进方法的卓越性能。
Sep, 2019