本文研究基于深度神经网络的自主决策系统的安全性,提出了一种基于认证对抗鲁棒性的在线防御机制,该机制计算执行过程中状态 - 动作值的保证下限,以在可能存在对手或噪声导致输入空间最差情况偏离选择最佳行动,在行人碰撞回避场景和一个经典控制任务中,该方法显示出提高对噪声和对手的鲁棒性。
Oct, 2019
通过提出一种新的方法,同时追求高准确性和具有认证的概率鲁棒性,我们的实验显示该方法在多个模型和数据集上的认证率和准确性方面明显优于现有方法。
Sep, 2023
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
本研究基于对认证对抗鲁棒性研究的探讨,为深度强化学习算法提供在线认证鲁棒性的防御机制。该方法通过计算阈值来确定最佳的行动方案以应对各种可能存在的敌对行为和噪声干扰,从而有效提高了系统的鲁棒性。
Apr, 2020
本研究论文论述了如何使用深度神经网络验证自动驾驶汽车的对抗鲁棒性问题,即证明网络的正确性以及研究自动控制器难度与机器学习的关系。
Sep, 2017
通过实证研究 100 个 DNN 模型和 25 种指标,发现 DNN 的测试覆盖率与鲁棒性之间的相关性有限,即提高测试覆盖率并不能帮助提高鲁棒性。这个研究提出的数据集和实现也可以作为测试 DNN 的基准。
Nov, 2019
本研究提出了通过随机平滑技术来确保深度神经网络对于各种威胁模型的健壮性,同时证明了所提出的健壮性训练过程的健壮性边界,并在 MNIST、CIFAR-10 和 ImageNette 数据集上进行了可靠性评估,该研究成果有助于更强大的机器学习模型的开发。
Mar, 2020
该研究论文综述了深度学习模型对抗鲁棒性的研究主题和基本原则,包括攻击、防御、验证和新应用。
Feb, 2022
本文提出了一种利用聚类方法自动识别神经网络输入空间安全区域的方法,并借助验证技术来确认这些区域是否安全或提供不安全的反例,并引入了目标鲁棒性的概念,以确保神经网络不会将任何输入映射到目标标签,利用 MNIST 数据集以及控制下一代无人机避撞系统的神经网络实施的空中碰撞预防系统(ACAS Xu)进行验证。
Oct, 2017