本篇论文介绍了在安全重要应用领域中使用深度神经网络的问题,针对其可靠性和安全性的担忧,提出了采用形式化验证来保证其运行符合预期,并通过两个方向,即设计可扩展性的验证技术和识别可验证的深度学习系统的设计选择来缓解这一挑战。
Jan, 2018
本文调查了最近出现的,从可达性分析、优化和搜索中获得的洞见的方法,以确保设计的深度神经网络满足特定的输入输出属性。 我们讨论了现有算法之间的根本差异和联系。 此外,我们提供了现有方法的教学实现,并在一组基准问题上进行了比较。
Mar, 2019
我们研究了神经网络计算的形式验证问题,探讨了其各种鲁棒性和最小化问题。我们提供了一个理论框架,使我们能够在神经网络中转换安全性和效率问题,并分析它们的计算复杂性。我们发现,在半线性设置中,对于分段线性激活函数和使用求和或最大度量时,大多数问题都属于 P 类或最多属于 NP 类。
Mar, 2024
提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
Dec, 2023
本研究提出了一种通过使用过度逼近来减小神经网络规模,以提高神经网络验证技术的框架,并使用反例引导调整逼近,以验证大型神经网络。实验证明,该方法对验证大型神经网络具有很大的潜力。
Oct, 2019
本文提出了一种保守的神经网络缩减方法,该方法能够在验证减小的网络的同时,确保验证原始网络,可以适用于任何类型的激活函数,使得网络能够被缩小到不到原来的 5% 的大小,从而显著减少了验证时间。
May, 2023
文章介绍了一种基于神经网络和逻辑规范的神经符号验证框架 Neuro-symbolic Verification,使得现有的神经网络验证基础设施可用于分析复杂的实际特性,从而避免现有神经网络验证技术的严重局限。
Mar, 2022
本文介绍在神经网络验证中如何利用凸松弛来证明一系列比较丰富的非线性规约,包括物理系统学习到的动力学模型的能量守恒,分类器的输出标签在对抗性扰动下的语义一致性以及预测手写数字求和的系统所包含的误差等,实验验证了该方法的有效性。
Feb, 2019
本研究引入超属性形式主义,提供了表达全局规范的方法,可以通过利用验证通用计算图形的能力验证全局规范,从而扩大了使用现有方法提供的保证范围。
Jun, 2023
本文提出了一种新的算法框架,predictor-verifier training,用于训练可验证的神经网络,同时训练两个网络:一个预测网络和一个验证网络以达到最大化输出准确性并满足输入输出特定属性的目标。实验表明,predictor-verifier 架构能够训练出鲁棒性强的神经网络并且训练时间显著减短,在像 MNIST 和 SVHN 这样的小数据集上优于以前的算法,同时能够扩展到 CIFAR-10 并产生首个已知的可验证鲁棒网络。
May, 2018