提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
Dec, 2023
本篇论文介绍了在安全重要应用领域中使用深度神经网络的问题,针对其可靠性和安全性的担忧,提出了采用形式化验证来保证其运行符合预期,并通过两个方向,即设计可扩展性的验证技术和识别可验证的深度学习系统的设计选择来缓解这一挑战。
Jan, 2018
为高维自主系统提供行为保证是人工智能安全领域中的一个特别具有挑战性的问题。本文提出了一个基于主动学习、不确定性量化和神经网络验证的新方法,其中的核心是一种称为不精确神经网络的集成技术,它提供了用于引导主动学习的不确定性。通过在多个物理模拟器上对经过增强学习的控制器进行评估,证明了我们的方法可以为高维系统提供有用且可扩展的保证。
Aug, 2023
本书介绍了形式验证的基本概念及其在神经网络和深度学习中的应用,以保证其安全性、健壮性和正确性。
Sep, 2021
本文讨论了神经网络在安全和保密方面应用的局限性,提出了一些自动推理技术来提供神经网络性能的保障,并且对现有的神经网络自动验证方法进行了综合分类和阐述,同时讨论了存在的局限性以及未来研究的方向。
May, 2018
本文研究如何使用形式化验证技术对增强学习 - enabled 机器学习系统进行验证,以保证其行为安全,并提出了一种基于黑盒方法的综合确定性程序的方法来实现系统验证。
Jul, 2019
我们提出了一种新的方法来训练和验证基于 NLB 的证书,通过证书的序列设计和过滤来简化验证过程,并与神经网络验证引擎一起提供正式保证,以确保 DRL 代理实现其目标并避免不安全行为,通过在 DRL 控制的航天器上进行案例研究展示了该方法的优点。
May, 2024
通过定性和定量安全性验证问题的综合合成有效的神经屏障证书,本文提出了一种用于 DNN 控制系统的新型框架,并通过 $ extsf {UniQQ}$ 工具在四个经典 DNN 控制系统上展示了其有效性。
Apr, 2024
我们介绍了两种算法,用于计算贝叶斯神经网络(BNNs)的概率鲁棒性的严格保证。
Jan, 2024
本研究探讨了二值化神经网络的形式验证问题,并使用硬件验证的约减方法对其进行了验证,通过证明找到最优 factor(因数)的 NP - 难度和 PTAS 可近似难度,设计出了多项式时间搜索启发式解法来生成因数解,整个框架可以应用于具有数千个神经元和输入的嵌入式设备的中等规模 BNN 的验证技术。
Oct, 2017