本文研究基于深度神经网络的自主决策系统的安全性,提出了一种基于认证对抗鲁棒性的在线防御机制,该机制计算执行过程中状态 - 动作值的保证下限,以在可能存在对手或噪声导致输入空间最差情况偏离选择最佳行动,在行人碰撞回避场景和一个经典控制任务中,该方法显示出提高对噪声和对手的鲁棒性。
Oct, 2019
本研究基于对认证对抗鲁棒性研究的探讨,为深度强化学习算法提供在线认证鲁棒性的防御机制。该方法通过计算阈值来确定最佳的行动方案以应对各种可能存在的敌对行为和噪声干扰,从而有效提高了系统的鲁棒性。
Apr, 2020
该论文提出了一种基于生成对抗网络 (GAN) 框架下的新防御机制来对抗黑盒攻击,在经验上表现良好并能与利用梯度下降的集成对抗训练和对抗训练等最先进的方法媲美。
May, 2019
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本文提出了一种利用聚类方法自动识别神经网络输入空间安全区域的方法,并借助验证技术来确认这些区域是否安全或提供不安全的反例,并引入了目标鲁棒性的概念,以确保神经网络不会将任何输入映射到目标标签,利用 MNIST 数据集以及控制下一代无人机避撞系统的神经网络实施的空中碰撞预防系统(ACAS Xu)进行验证。
Oct, 2017
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
本研究使用简单的物理攻击,将黑线涂在路上,对自动驾驶的深度神经网络模型进行端对端的攻击,并探讨了针对直行的攻击与针对右转的攻击等场景的高度有效性。
Mar, 2019
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
该研究论文综述了深度学习模型对抗鲁棒性的研究主题和基本原则,包括攻击、防御、验证和新应用。
Feb, 2022