图神经网络的对抗性训练
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本文综述了100多篇关于图数据中深度神经网络的对抗攻击和防御策略的研究,提出了一个包括大多数图对抗性学习模型的统一公式,并比较了不同的图攻击和防御,总结了评估指标、数据集和未来的趋势。
Dec, 2018
研究表明神经网络的视觉分类任务受到小幅但有意的输入特征扰动的影响。基于连接的示例引起了对目标示例影响的干扰,图对神经网络的影响更大。针对此问题,本文提出了一种动态正则化技术——图形对抗训练(Graph Adversarial Training,GraphAT),该技术结合了输入特征中的干扰和连接示例的影响,并将其应用于图卷积网络(Graph Convolutional Network,GCN)的目标节点分类任务中,实验结果表明,GraphAT可以提高模型的鲁棒性。
Feb, 2019
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019
本文研究了图卷积网络在对抗扰动下的鲁棒性,通过提出GraphDefense方法,成功提高了图卷积网络的鲁棒性,同时能够维持半监督学习的设定,具有较大的应用潜力。
Nov, 2019
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为Pro-GNN的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性GNN模型以应对此问题。通过实验表明,Pro-GNN在防御敌对攻击方面表现优异。
May, 2020
本文提出了一种采用总变分和Wasserstein距离进行敌对训练以本地过滤敏感属性的框架,从而增强对推断攻击的防御能力。实验证实,该方法在各种图结构和任务下均提供了强大的防御,并产生了适用于下游任务的竞争性GNN编码器。
Sep, 2020
本文提出 Spectral Adversarial Training (SAT),基于频谱分解的简单但有效的对抗训练方法,用于提高图神经网络(GNN)对抗攻击的鲁棒性,实验结果表明 SAT 显著提高了 GNN 对抗攻击的鲁棒性,而不影响分类准确性和训练效率。
Nov, 2022