本文主要综述了计算机视觉领域使用最广泛的工具 —— 深度学习,以及该技术面临的对抗性攻击及其防御。此外,本文还提供了专业术语的简明定义,讨论了该领域的挑战和未来展望。
Aug, 2021
文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
Sep, 2018
本文总结了最新的对抗攻击技术,利用现代防御策略对其进行分类,并概述视觉转换进展、反对抗设置中使用的数据集及度量标准,并在不同攻击下比较最新成果,最终确定了该领域的开放问题。
May, 2023
深度神经网络被广泛用于各种下游任务,尤其是自动驾驶等安全关键场景,但深度网络常常受到对抗样本的威胁。对抗攻击可以分为白盒攻击和黑盒攻击,前者攻击者知道模型的参数和梯度,后者攻击者只能获取模型的输入和输出。攻击者的目的可以分为有目标攻击和非有目标攻击,黑盒设置是我们实践中会遇到的情况。
Aug, 2023
这篇论文探讨了深度学习在图像分类中的安全问题,介绍了针对对抗攻击和对抗防御的新分类方法,提供了研究者需要考虑的相关指导,并讨论了未来研究的方向。
Sep, 2020
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
深度学习使我们能够高效地训练复杂数据的神经网络。然而,随着研究的增长,神经网络的几个弱点也被曝光。对抗机器学习是一种特定的研究领域,旨在利用和理解导致神经网络因输入接近原始输入而错误分类的一些弱点。提出了一类称为对抗性攻击的算法,用于在不同领域的各种任务上使神经网络错误分类。随着对对抗性攻击的广泛研究,了解对抗性攻击的分类是至关重要的。这将有助于我们以系统性的方式了解弱点,并帮助我们减轻对抗性攻击的影响。本文对现有的对抗性攻击及其不同角度的理解进行了概述,并简要介绍了现有对抗性防御措施及其在减轻对抗性攻击效果方面的局限性。此外,我们讨论了对抗机器学习领域未来研究的方向。
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
对于深度神经网络 (DNNs) 的安全性问题,本文重点关注于物理对抗攻击,总结了 150 篇现有的物理对抗攻击的论文,详细分析了物理对抗攻击的特征、媒介、方法及其效果,并探讨了当前的挑战和未来方向。
Sep, 2022