通过强化学习对图形进行节点注入攻击
本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022
提出了一种基于强化学习的无梯度通用对抗攻击方法,称为 G$^2$-SNIA,它可以开展黑盒回避攻击并仅注入单个恶意节点至目标节点来操纵其分类结果,优于现有最先进的基线。
May, 2023
本研究针对图神经网络的黑盒节点插入攻击问题,提出了基于强化学习框架的渐进式无梯度节点插入攻击方法,并通过对八个基准数据集的广泛实验表明其在攻击效率和攻击成功率方面均优于现有攻击方法。
Nov, 2022
该研究提出了优化方法和模型:一个针对单节点注入攻击的优化方案,以及一个通用的针对节点注入的模型 (G-NIA),实验表明 G-NIA 模型在攻击效率和攻击性能两方面表现优异。
Aug, 2021
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021
尽管图神经网络(GNNs)在与图相关的任务中展示出了显着的能力,但最近的研究揭示了 GNNs 在面对恶意对抗攻击时的公平性漏洞。然而,所有现有的公平性攻击都需要操纵现有节点之间的连接,在现实中可能是被禁止的。为此,我们提出了一种基于节点注入的公平性攻击(NIFA),在更现实的情况下探索了 GNN 公平性的漏洞。 NIFA 首先为节点注入操作设计了两个有见地的原则,即不确定性最大化原则和同质性增加原则,然后优化注入节点的特征矩阵,以进一步确保公平性攻击的有效性。对三个真实世界数据集的综合实验一致表明,NIFA 可以通过仅注入 1%的节点显着破坏主流 GNNs 的公平性,甚至包括关注公平性的 GNNs。我们真诚希望我们的工作能引起研究人员对 GNN 公平性漏洞的更多关注,并鼓励相应防御机制的开发。
Jun, 2024
本研究针对网络表征学习方法中基于随机游走的广泛使用问题,提供了首个对其鲁棒性的对抗性漏洞分析,提出有效的对抗性扰动对网络结构造成了负面影响,并证明本研究提出的攻击是可迁移的。
Sep, 2018
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本论文旨在研究图卷积神经网络(GCN)中的对抗性攻击,针对 GCN 中利用邻居节点学习聚合信息的方法进行了攻击,并提出了新的方法来执行间接攻击,以检测网络的鲁棒性。在实验中,作者表明,只需毒化一个远离目标节点一个或两个跳点的单个节点,就可以高置信度地欺骗节点分类器。
Feb, 2020