本研究针对图神经网络的隐私攻击风险展开了首个综合性的分析,提出并验证了三种攻击方法,并探究了两种防御机制的实用性。
Feb, 2021
本文通过建立节点注入攻击的马尔科夫决策过程模型,提出了一种基于强化学习框架 (GA2C)的节点注入方法,将注入节点结构化地插入原图中。研究结果表明,与现有最先进的方法相比,本文提出的 GA2C 方法具有更高的注入成功率和分类误差率。
Feb, 2022
研究黑盒攻击图神经网络中节点选择的问题,发现通过基于 PageRank 的重要度计算可提高分类误差率,提出一种基于贪心算法的修正方法能有效地解决被攻击节点数量与分类误差率之间的矛盾。
Jun, 2020
本文提出了一种针对图神经网络的对抗攻击方法,通过图重连的操作,使用强化学习生成对于目标模型影响较小的扰动,并在真实图数据集上进行实验及分析,证明该方法的有效性。
Jun, 2019
我们提出了一种新颖的网络表示形式作为流图,旨在为入侵检测任务提供相关的拓扑信息,以及通过基于图结构的神经网络框架将通信流分类为恶意得分。我们还强调了传统评估程序可能存在的数据泄露问题,并提出了解决方案以确保入侵检测系统性能的可靠验证。通过实施提出的框架,证明利用基于流的图结构优于经典的基于机器学习和先前的基于图神经网络的解决方案。
Sep, 2023
该研究提出了优化方法和模型:一个针对单节点注入攻击的优化方案,以及一个通用的针对节点注入的模型 (G-NIA),实验表明 G-NIA 模型在攻击效率和攻击性能两方面表现优异。
Aug, 2021
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
Sep, 2022
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
该研究提出了第一种针对图神经网络的非目标黑盒节点注入攻击方法,通过限制优化过程来实现节点注入攻击,并在三个数据集上评估攻击的性能。
Nov, 2023