对象检测的形式验证
提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
Dec, 2023
本篇论文介绍了在安全重要应用领域中使用深度神经网络的问题,针对其可靠性和安全性的担忧,提出了采用形式化验证来保证其运行符合预期,并通过两个方向,即设计可扩展性的验证技术和识别可验证的深度学习系统的设计选择来缓解这一挑战。
Jan, 2018
本文对深度神经网络抗对抗攻击的可靠性进行了研究和分析,并提出了目前的防御方法以及相应的理论和实践意义和发现,最后在不同数据集上提供了全面的鲁棒性验证和训练方法。
Sep, 2020
通过使用 DNN 验证技术,我们引入了一种新的方法来识别具有稳健泛化能力的 DNN 决策规则,并在真实世界环境中进行了广泛评估,为部署 DNN 驱动系统提供了新的验证目标。
Jun, 2024
深度神经网络在安全方面的正式验证问题已经扩展到计数版本 (DNN-Verification),为了在给定安全属性的领域中计算不安全区域的数量。为了解决这个问题的复杂性,本研究提出了一种基于可达性分析、符号线性松弛和并行计算的新策略,以增强现有的精确和近似 DNN 计数的形式验证的效率。在标准的形式验证基准和现实的机器人场景上进行的实证评估表明,在可扩展性和效率方面都取得了显著的改进,使得这种技术能够用于复杂的机器人应用。
Dec, 2023
本研究提出了第一种实时在线攻击物体检测模型的方法,通过构造虚假物品边界框等三种攻击方式对物体检测模型进行攻击,成功率高达 90%,适用于动态环境中,并提供了演示视频。
Sep, 2022
本研究从模型鲁棒性的角度出发,对目标检测模型和对抗攻击进行了系统分析,提出了一种多任务学习的视角和不对称的任务损失,并进一步开发了一种基于多种攻击源提高检测模型鲁棒性的对抗训练方法,实验证明了其有效性。
Jul, 2019
本文应用正式的概率分析技术对一种通过感知深度神经网络(DNN)引导飞机滑行的实验自主系统进行了案例研究,通过使用代表性图像数据集计算 DNN 的混淆矩阵来替换摄像机和网络,构建紧凑的概率抽象,以解决感知 DNN、传感器和环境条件的复杂性所带来的挑战,并展示了如何利用本地、DNN 特定的分析作为运行时保护,以提高整个系统的安全性。
Feb, 2023
使用形式验证方法评估了一个用于飞机滑行阶段的图像分类器深度神经网络 (DNN) 在噪声、亮度和对比度以及它们的组合等三种常见图像扰动类型下的鲁棒性,结果表明该分类器对噪声比亮度和对比度扰动更加脆弱。
Jan, 2024