本文综述了 100 多篇关于图数据中深度神经网络的对抗攻击和防御策略的研究,提出了一个包括大多数图对抗性学习模型的统一公式,并比较了不同的图攻击和防御,总结了评估指标、数据集和未来的趋势。
Dec, 2018
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
Mar, 2020
本文提出了针对图数据的攻击和防御技术,其中引入了集成梯度来解决离散特征的问题,并且发现对于攻击后的图形,它的统计特征与正常图形不同,并提出一种检查图像并找到潜在的对抗扰动的方法。经过若干数据集的测试显示本文方法的有效性。
Mar, 2019
本文综述了目前三种最常见的数据类型(图片、图表和文本)中,针对深度神经网络的攻击和防御机制,并评估了相应的对策的成功度。
Sep, 2019
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
Sep, 2018
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
深度学习使我们能够高效地训练复杂数据的神经网络。然而,随着研究的增长,神经网络的几个弱点也被曝光。对抗机器学习是一种特定的研究领域,旨在利用和理解导致神经网络因输入接近原始输入而错误分类的一些弱点。提出了一类称为对抗性攻击的算法,用于在不同领域的各种任务上使神经网络错误分类。随着对对抗性攻击的广泛研究,了解对抗性攻击的分类是至关重要的。这将有助于我们以系统性的方式了解弱点,并帮助我们减轻对抗性攻击的影响。本文对现有的对抗性攻击及其不同角度的理解进行了概述,并简要介绍了现有对抗性防御措施及其在减轻对抗性攻击效果方面的局限性。此外,我们讨论了对抗机器学习领域未来研究的方向。
Aug, 2023
本文总结了最新的对抗攻击技术,利用现代防御策略对其进行分类,并概述视觉转换进展、反对抗设置中使用的数据集及度量标准,并在不同攻击下比较最新成果,最终确定了该领域的开放问题。
May, 2023
通过对神经网络体系结构的图形研究,引入了一种新的从图形角度检测和解释对抗攻击的方法,并利用特定的度量来预测和解释对抗攻击。研究结果表明,基于图形的方法有助于研究对抗攻击的内部工作方式。