通过协作性同质性增强抵抗图形对抗攻击
该论文研究了图嵌入攻击对图神经网络的影响,提出了基于同质性的防御方法并设计了一种新的目标函数,实现了对同质性嵌入无感知的控制,该方法在提高对抗攻击的鲁棒性方面有着积极的意义。
Feb, 2022
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021
研究图神经网络中的异质性标签与 GNN 对抗性攻击鲁棒性之间的关系,并且证实采用相应设计原则可以提高 GNN 的鲁棒性,实验证明采用这种设计可以比未接种疫苗的模型实现更好的鲁棒性,并且采用防御机制可以使其鲁棒性更强,性能提高达 18.33%。
Jun, 2021
该论文提出一种名为 Talos 的新防御方法,通过增强图的全局同质性来抵御针对图神经网络的对抗攻击,实验证明该方法在防御效果上显著优于现有方法且计算开销较小。
Jun, 2024
在这篇论文中,我们探索了异质图中图神经网络的脆弱性,并在理论上证明了负分类损失的更新与基于聚合邻居特征的成对相似性呈负相关。为了解决这个问题,我们提出了一种名为 NSPGNN 的新型鲁棒模型,它在监督邻居相似性引导传播的过程中采用了双 k 最近邻图管道。通过广泛的实验证明,与现有方法相比,NSPGNN 在同质图和异质图上都具有普遍的鲁棒性。
Jan, 2024
本文研究了图神经网络受到注入攻击威胁的拓扑漏洞,在此基础上提出了一种效果显著的注入攻击方法 ——TDGIA,通过拓扑缺陷边选择策略和平滑特征优化目标生成虚假节点特征,对防御 GNN 模型进行攻击并成功超过多种攻击基准。
Jun, 2021
提出了一种基于强化学习的无梯度通用对抗攻击方法,称为 G$^2$-SNIA,它可以开展黑盒回避攻击并仅注入单个恶意节点至目标节点来操纵其分类结果,优于现有最先进的基线。
May, 2023
在异质性的情况下,图神经网络(GNNs)往往表现出次优的性能。本文提出并证明了异质性中宝贵的语义信息可以通过研究每个节点在图中的邻居分布来有效地利用于图学习,进而构建了一种新的图结构 HiGNN,该结构通过利用节点分布来增强具有相似语义特征的节点之间的连接性。通过在节点分类任务上的实证评估和与其他方法比较,我们验证了 HiGNN 在改进图表示方面的有效性,并证明通过整合异质性信息可以显著提升现有基于 GNN 的方法,以及在真实世界数据集中的同质性程度,从而证明了我们方法的功效。
Mar, 2024
本文通过重新评估广泛使用的同质性度量,并从后集成节点相似性的角度研究了异质性。提出了一种新的度量方法,并证明了 local diversification operation 可以有效解决一些有害的异质性情况,然后提出了 Adaptive Channel Mixing(ACM)框架来自适应地利用聚合,多样性和标识通道,从而从多样化的节点异质性情况中提取更丰富的局部信息。经过 10 项基准节点分类任务的评估,ACM-augmented 基线始终实现了显着的性能提升,超过大多数任务上的最新 GNN,而不会带来显着的计算负担。
Oct, 2022
HGAttack 是针对异构图设计的首个灰盒逃避攻击方法,通过设计一种新颖的代理模型,利用梯度方法实现扰动生成,提高了生成攻击在目标 HGNN 上的可转移性并显著降低了内存成本。在三个数据集上的综合实验证实了 HGAttack 的有效性。
Jan, 2024