本文提出了基于加密学的防御机制抵御神经网络的对抗攻击,对于攻击者在灰盒情况下的各种攻击表现出很强的鲁棒性。
Sep, 2018
本文提出一种方法,在深度神经网络中增加一个小的 “检测器” 子网络,用于区分含有敌对扰动的假数据和不包含敌对扰动的真数据的二元分类任务,并证明其能够有效检测和对抗敌对扰动攻击。
Feb, 2017
基于高频信息增强策略,提出了一种针对对抗性样本的检测框架,可以在不修改现有检测模型的情况下,提高检测器的性能和降低部署成本。
May, 2023
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本文介绍了一种新的端到端框架来检测深度神经网络中可能存在的对抗样本,采用神经元覆盖率引导测试来分析 DNN 的密集层激活模式,以实现实时检测,能够覆盖各种类型的 DNN 架构,包括 LSTM,防御了最先进的攻击,同时提供确保无法轻易绕过的白盒自适应攻击。
Nov, 2019
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
本研究提出了一种检测对抗性样例的方法,通过估计对抗性攻击造成的修改概率来增强隐写分析特征,实验证明该方法可以准确检测对抗性样例,并且没有基于神经网络,而是基于高维人工特征和 FLD (Fisher Linear Discriminant) 系列,因此不能直接进行二次对抗性攻击。
Jun, 2018
提出一种基于永续度量的方法,通过创造高度扭曲网络特征空间的攻击来达到高度通用的敌对样本,旨在打破相对有限的目前攻击的限制,并可将其通过多个网络扩展到多个任务。
Nov, 2018
医学深度学习系统可以被巧妙地构造对抗性例子攻击破坏,难以在实际临床设置中应用,本文发现医学深度学习模型对于对抗攻击比对自然图像模型更脆弱,但医学对抗攻击可以通过简单的检测器容易检测出来,这些发现可作为更可解释和安全的医学深度学习系统设计的依据。
Jul, 2019
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017