基于规格的神经网络简化用于可扩展形式验证
通过消除稳定的 ReLU 神经元并将其转化为由 ReLU 和仿射层组成的顺序神经网络,我们提出了一种网络削减技术作为预处理方法以便于验证,实验证明这种技术能够显著减小神经网络规模并加快验证过程。
Aug, 2023
本文提出了一种通用的神经网络形式验证框架,通过将验证问题转化为最优化问题,并通过我们提出的松弛算法得到可靠的上界,从而可对神经网络的输入和输出属性满足的规范进行形式化验证。
Mar, 2018
本文提出了一种神经网络模型减缩的方法,通过精确计算模型减缩精度,将减缩后的神经网络控制器替换成封闭回路系统,进而提高安全验证的计算效率,并通过自适应巡航控制系统的案例验证了方法的有效性。
Jan, 2023
本篇论文介绍了在安全重要应用领域中使用深度神经网络的问题,针对其可靠性和安全性的担忧,提出了采用形式化验证来保证其运行符合预期,并通过两个方向,即设计可扩展性的验证技术和识别可验证的深度学习系统的设计选择来缓解这一挑战。
Jan, 2018
提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
Dec, 2023
文章介绍了一种基于神经网络和逻辑规范的神经符号验证框架 Neuro-symbolic Verification,使得现有的神经网络验证基础设施可用于分析复杂的实际特性,从而避免现有神经网络验证技术的严重局限。
Mar, 2022
本研究提出了一种通过使用过度逼近来减小神经网络规模,以提高神经网络验证技术的框架,并使用反例引导调整逼近,以验证大型神经网络。实验证明,该方法对验证大型神经网络具有很大的潜力。
Oct, 2019
本文介绍在神经网络验证中如何利用凸松弛来证明一系列比较丰富的非线性规约,包括物理系统学习到的动力学模型的能量守恒,分类器的输出标签在对抗性扰动下的语义一致性以及预测手写数字求和的系统所包含的误差等,实验验证了该方法的有效性。
Feb, 2019
本文提出了一种有效的方法来严格检查神经网络的不同安全属性,可以检查不同的安全属性并找到具体的反例,比现有方法的性能提高了数个数量级,这种方法也有助于提高神经网络的可解释性并指导训练更加稳健的神经网络。
Sep, 2018