深度神经网络上的模型无关可达性分析
本文研究针对前馈深度神经网络的通用可达性问题,通过计算输出函数值的下限和上限,得到区间范围内的可达值,从而得出安全性验证问题、输出范围分析问题和鲁棒性度量,并通过自适应嵌套优化的新算法,有效地解决了可达性问题。
May, 2018
提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
Dec, 2023
通过使用 DNN 验证技术,我们引入了一种新的方法来识别具有稳健泛化能力的 DNN 决策规则,并在真实世界环境中进行了广泛评估,为部署 DNN 驱动系统提供了新的验证目标。
Jun, 2024
该论文提出了一种基于 Lipschitzian 优化的 NNCS 验证框架,通过证明闭环 NNCS 的 Lipschitz 连续性并消除循环来实现,相比最先进的验证方法,DeepNNC 在各种 NNC 的效率和准确性方面表现更加优秀,并通过实际的案例展示了 DeepNNC 处理复杂系统的能力。
Jan, 2023
本文提出了一种针对 DRL 系统的紧密可扩展的可达性分析方法,使用抽象状态处理内嵌的神经网络以避免神经网络的过估计,并设计了一种名为 BBReach 的工具来评估其紧密性、可扩展性和效率。
Nov, 2022
本篇研究论文提出了一种新的 reachability analysis 方法,通过 Bernstein 多项式可以验证具有广泛的激活函数形式的神经网络控制系统的安全性,同时基于 Lipschitz 连续性提供了理论误差界估计和实际采样误差界估计方法。与之前的方法相比,这种方法可以应用于包含多种类型激活函数的异构神经网络,实验结果表明有效性。
Jun, 2019
深度神经网络在安全方面的正式验证问题已经扩展到计数版本 (DNN-Verification),为了在给定安全属性的领域中计算不安全区域的数量。为了解决这个问题的复杂性,本研究提出了一种基于可达性分析、符号线性松弛和并行计算的新策略,以增强现有的精确和近似 DNN 计数的形式验证的效率。在标准的形式验证基准和现实的机器人场景上进行的实证评估表明,在可扩展性和效率方面都取得了显著的改进,使得这种技术能够用于复杂的机器人应用。
Dec, 2023
该研究介绍了 UR4NNV 验证框架,它首次利用了 DNN 的欠逼近可达性分析方法,针对具有 ReLU 激活函数的 DNN 并采用基于二叉树分支的欠逼近算法。UR4NNV 有效验证 DNN 属性且在达到验证轮数和未能证伪属性时提供置信水平,实验比较结果显示 UR4NNV 在解决 “未知困境” 方面的有效性和效率,显著减少了影响。
Jan, 2024
本篇论文提出了一种称之为 DeepGlobal 的全局稳健性验证框架,通过利用 SMT 求解器 Z3 进行实现并进行多重改进,来评估该框架在一系列基准数据集上的有效性和可行性。
Apr, 2023
为高维自主系统提供行为保证是人工智能安全领域中的一个特别具有挑战性的问题。本文提出了一个基于主动学习、不确定性量化和神经网络验证的新方法,其中的核心是一种称为不精确神经网络的集成技术,它提供了用于引导主动学习的不确定性。通过在多个物理模拟器上对经过增强学习的控制器进行评估,证明了我们的方法可以为高维系统提供有用且可扩展的保证。
Aug, 2023