该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
该论文提出了一种称为 DefNet 的针对图神经网络 (GNN) 的有效对抗性防御框架,结合图神经网络每一层中的潜在漏洞和条件 GAN 方法对其进行训练,有效提高了 GNN 在各种类型的对抗攻击下的鲁棒性。
May, 2019
本文探讨了图神经网络在面临敌对攻击时的脆弱性,并提出了一种名为 Pro-GNN 的框架,以基于真实世界图形的内在属性来联合学习结构性图形和稳健性 GNN 模型以应对此问题。通过实验表明,Pro-GNN 在防御敌对攻击方面表现优异。
May, 2020
本文提出了基于梯度的攻击方法,以解决离散图数据的难点,并基于此提出了第一个面向图神经网络的基于优化的对抗训练,可以提高不同梯度和贪心攻击方法的鲁棒性,同时不牺牲原始图的分类准确性。
Jun, 2019
本文综述了 100 多篇关于图数据中深度神经网络的对抗攻击和防御策略的研究,提出了一个包括大多数图对抗性学习模型的统一公式,并比较了不同的图攻击和防御,总结了评估指标、数据集和未来的趋势。
Dec, 2018
图神经网络 (GNNs) 的脆弱性研究,通过系统性地考虑图数据模式、模型特定因素和对抗样本的传递性,揭示了对抗攻击对 GNN 的影响,从而为提高 GNN 的对抗鲁棒性提供了相关的准则和原则。
Jun, 2024
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
本文介绍了对抗训练在解决图神经网络中的结构扰动方面的局限并展示了基于可学习图扩散的灵活图神经网络和针对多节点和全局约束的结构扰动攻击,进一步证明了对抗训练作为对抗性结构扰动的最先进防御手段。
Jun, 2023
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019