基于图聚类的实用攻击
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021
本文介绍了一种基于生成对抗网络的黑盒攻击,旨在分析和提高当前最先进的深度聚类模型的鲁棒性。经过实验验证,本篇研究发现传统无监督防御方法无法有效抵御这种攻击方式,从而呼吁开发更为鲁棒的深度聚类模型。
Oct, 2022
本文主要研究基于图的分类方法的安全和隐私分析,提出了对付 collective classification 方法的对抗攻击方法,并评估了其使用在进攻和隐私防御方面的效果。
Mar, 2019
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
通过对神经网络体系结构的图形研究,引入了一种新的从图形角度检测和解释对抗攻击的方法,并利用特定的度量来预测和解释对抗攻击。研究结果表明,基于图形的方法有助于研究对抗攻击的内部工作方式。
May, 2023
本文综述了 100 多篇关于图数据中深度神经网络的对抗攻击和防御策略的研究,提出了一个包括大多数图对抗性学习模型的统一公式,并比较了不同的图攻击和防御,总结了评估指标、数据集和未来的趋势。
Dec, 2018
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020