HGAttack: 可转移的异构图对抗攻击
本论文介绍了 HyperAttack-- 第一个针对超图神经网络的白盒子对抗攻击框架,提高了攻击成功率和时间效率,作为一种结构攻击方法,通过扰乱向目标节点连接的超边状态,并引导梯度和集成梯度。
Feb, 2023
通过设计一种新的 HGNNs 攻击模型,即 MGHGA,集中在修改节点特征上,本论文试图填补现有研究中对 HGNNs 敌对攻击的研究空白,通过在特征选择和特征修改模块中使用动量梯度机制和特征生成方法,MGHGA 能够在离散和连续数据集上有效对节点和视觉对象分类任务进行攻击,并在实验证明相对于基准方法,MGHGA 的攻击性能平均提升了 2%。
Oct, 2023
本文介绍了一种新的框架,Blend&Grind-HGNN(BG-HGNN),该框架有效地解决了现有 HGNN 在处理不同关系类型复杂异构图时所面临的问题,其通过将不同关系融合到一个统一的特征空间中,在参数可管理的单一参数集的帮助下,得到了一个更高效、更有效地从异构图中学习的 HGNN 方法。实证研究表明,BG-HGNN 在参数效率(高达 28.96 倍)、训练吞吐量(高达 8.12 倍)和准确性(高达 1.07 倍)方面显著超过了现有的 HGNN。
Mar, 2024
我们提出了一种新的模型反演攻击方法,名为 HomoGMI 和 HeteGMI,旨在通过最大化目标 GNN 上的交叉熵损失和重构图上的第一和第二阶近似程度优化方法,在多个基准测试中的实验证明,该方法可以比竞争对手获得更好的性能。
Oct, 2023
本论文通过对异构图神经网络(HGNN)中注意力机制、多层结构进行深入研究,提出了 Simple and Efficient Heterogeneous Graph Neural Network(SeHGNN),该方法采用轻量级平均聚合器预先计算邻居聚合以捕获结构信息,采用长元路径和 Transformer 语义融合模块来更好地利用语义信息,结果表明 SeHGNN 具有简单的网络结构、高预测准确性和快速的训练速度。
Jul, 2022
通过对图结构进行连续松弛和参数化,我们提出了一种名为 Differentiable Graph Attack(DGA)的新型攻击方法,以高效生成有效的攻击并同时消除了昂贵的重新训练的需求。与最新技术相比,DGA 在不同基准数据集上实现了几乎相等的攻击性能,训练时间减少了 6 倍,GPU 内存占用减少了 11 倍。此外,我们还对 DGA 在不同图模型之间的可转移性以及对广泛使用的防御机制的鲁棒性进行了广泛的实验分析。
Aug, 2023
我们提出了一种名为 RpHGNN 的混合预计算型异构图神经网络,它将一种风格的效率与另一种风格的低信息损失相结合,通过引入随机投影压缩步骤和关系化邻居收集组件,在七个小型和大型基准数据集上获得了最先进的结果,并比大多数有效的基准方法快 230%。
Oct, 2023
本文通过使用官方代码、数据集、设置和超参数,对 12 个最近的异质图神经网络进行了系统的复现,揭示了关于 HGNNs 进展的惊人发现。发现由于不当的设置,简单的同质 GNNs 被大大低估,GAT 在适当的输入情况下可以在各种情况下与或胜过所有现有的 HGNNs。为了促进鲁棒且可重复的 HGNN 研究,我们构建了异质图基准 (HGB),其中包括具有三个任务的 11 个不同的数据集。HGB 规范了异质图数据分割、特征处理和性能评估的流程。最后,我们介绍了一个简单但非常强大的基准 Simple-HGN,它在 HGB 上明显优于所有先前的模型,以加速未来 HGNNs 的发展。
Dec, 2021
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019