研究了深度学习的形式验证以及提出了一种基于分支定界的族算法,并提出了新型的组合方法,以及新的有效的分支策略,将之用于高维输入上的问题,并提出包含以前发布的测试案例的全面测试数据集和基准测试。
Sep, 2019
通过训练图神经网络来设计一个有效的分支策略,能够在形式化验证神经网络的过程中减少验证时间并获得更好的验证结果。
Dec, 2019
我们介绍了两种算法,用于计算贝叶斯神经网络(BNNs)的概率鲁棒性的严格保证。
Jan, 2024
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
为高维自主系统提供行为保证是人工智能安全领域中的一个特别具有挑战性的问题。本文提出了一个基于主动学习、不确定性量化和神经网络验证的新方法,其中的核心是一种称为不精确神经网络的集成技术,它提供了用于引导主动学习的不确定性。通过在多个物理模拟器上对经过增强学习的控制器进行评估,证明了我们的方法可以为高维系统提供有用且可扩展的保证。
Aug, 2023
本文提出了一种概率健壮性的概念,并介绍了一个基于抽象解释和重要性采样的算法,以检查神经网络是否具有概率健壮性。
Feb, 2019
本文提出了名为 GenBaB 的通用框架,用于进行神经网络中非线性函数的分支界定与验证,并展示了其在验证各种类型的神经网络以及其他非线性计算图上的有效性。
May, 2024
通过新的边界方法,我们提出了一种名为 VPN 的算法,具有全局收敛保证,可在 MNIST、CIFAR10 和 STL10 数据集上进行经验证的完整 PN 验证,其关键洞察是我们获得比 IBP 和 DeepT-Fast 更紧密的边界。
Sep, 2022
该文章提出了一种验证深度概率模型的新框架,在模型输出过程中采样潜在变量并考虑其所需的条件输入,以高概率满足线性约束,并能够有效地验证功能空间中感兴趣的属性(单调性、凸性)
本文提出了一种通用的神经网络形式验证框架,通过将验证问题转化为最优化问题,并通过我们提出的松弛算法得到可靠的上界,从而可对神经网络的输入和输出属性满足的规范进行形式化验证。
Mar, 2018