文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
Sep, 2018
本文提出了一种新的训练免费的攻击方法,使用一个小的特洛伊模块(TrojanNet)将恶意特征插入目标模型,该模型通过特殊标记对输入进行标记,并将所有标签注入特洛伊,攻击成功率达到 100%,且不会影响模型在原始任务上的准确性。
Jun, 2020
本文综述了计算机视觉领域深度学习中的对抗攻击及其防御方法,包括攻击的设计、存在性和实际应用的评估,旨在提供更全面的研究方向展望及其实际意义。
Jan, 2018
本文总结了最新的对抗攻击技术,利用现代防御策略对其进行分类,并概述视觉转换进展、反对抗设置中使用的数据集及度量标准,并在不同攻击下比较最新成果,最终确定了该领域的开放问题。
May, 2023
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
人工智能和深度学习技术的迅速发展促进了自动驾驶系统,但是这些系统仍受到来自不同攻击的威胁。此研究调查了可能危及自动驾驶系统的各种攻击,以及相应的最新防御机制,从而提出了一些有前途的研究方向以提高自动驾驶的安全性。
Apr, 2021
通过在内存中修补模型参数,攻击者可以实现对深度学习系统的实时攻击,并演示了如何在 Windows 和 Linux 中修补 TensorFlow 模型参数以及有效地操作被扰动的输入数据的熵以绕过 STRIP 的新技术
Apr, 2020
本研究论文介绍了一种新的多目标后门攻击,使用非后门模型作为教师模型解决最小最大优化问题提升攻击模型的性能,不能有效防御后门模型的特定输出的防御机制准确性将降至 0%。
Mar, 2022
本文介绍了 TrojAI 软件框架,它是一套开源的 Python 工具,可以生成带有木马的数据集和相应的深度学习模型,以及演示了利用该框架生成基于 MNIST 的带有木马的分类器和使用矢量观测生成带有木马的强化学习模型的能力。同时,该框架还能用于快速全面测试新的木马检测方法。
Mar, 2020
深度学习模型在多个领域取得了巨大的成功,但研究发现这些模型存在各种攻击,会危及模型的安全性和数据隐私,特别是模型抽取攻击、模型反转攻击和对抗攻击。这篇论文研究了这些攻击以及它们对深度学习模型的影响。
Nov, 2023