图数据的对抗攻击与防御综述
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本文提出了基于图神经网络(GNNs)的对抗攻击的防御机制,包括新的对抗训练策略和平滑防御策略。实验结果表明,这些策略能够提高 GNNs 的抵御攻击的能力,并且在不同的网络分析任务中能够有效地防御各种对抗攻击。
Mar, 2019
该论文提出了一种称为 DefNet 的针对图神经网络 (GNN) 的有效对抗性防御框架,结合图神经网络每一层中的潜在漏洞和条件 GAN 方法对其进行训练,有效提高了 GNN 在各种类型的对抗攻击下的鲁棒性。
May, 2019