走向可靠的神经规格
通过提取神经网络层中高维激活空间内相似的激活特点,我们找到了一些被对待相似的输入群体,这些输入群体代表神经激活模式 (NAPs),并可用于可视化和解释学习层概念,从而实现了神经网络的分析方法的互补。
Jun, 2022
我们研究了神经网络计算的形式验证问题,探讨了其各种鲁棒性和最小化问题。我们提供了一个理论框架,使我们能够在神经网络中转换安全性和效率问题,并分析它们的计算复杂性。我们发现,在半线性设置中,对于分段线性激活函数和使用求和或最大度量时,大多数问题都属于 P 类或最多属于 NP 类。
Mar, 2024
文章介绍了一种基于神经网络和逻辑规范的神经符号验证框架 Neuro-symbolic Verification,使得现有的神经网络验证基础设施可用于分析复杂的实际特性,从而避免现有神经网络验证技术的严重局限。
Mar, 2022
本文介绍在神经网络验证中如何利用凸松弛来证明一系列比较丰富的非线性规约,包括物理系统学习到的动力学模型的能量守恒,分类器的输出标签在对抗性扰动下的语义一致性以及预测手写数字求和的系统所包含的误差等,实验验证了该方法的有效性。
Feb, 2019
为高维自主系统提供行为保证是人工智能安全领域中的一个特别具有挑战性的问题。本文提出了一个基于主动学习、不确定性量化和神经网络验证的新方法,其中的核心是一种称为不精确神经网络的集成技术,它提供了用于引导主动学习的不确定性。通过在多个物理模拟器上对经过增强学习的控制器进行评估,证明了我们的方法可以为高维系统提供有用且可扩展的保证。
Aug, 2023
本文提出了一种通用的神经网络形式验证框架,通过将验证问题转化为最优化问题,并通过我们提出的松弛算法得到可靠的上界,从而可对神经网络的输入和输出属性满足的规范进行形式化验证。
Mar, 2018
提出了一种生成可验证的神经网络(VNNs)的新框架,该框架通过后训练优化在保留预测性能和鲁棒性之间取得平衡,使得生成的网络在预测性能方面与原始网络相当,并且可以进行验证,以更加高效地建立 VNNs 的强大性。
Dec, 2023
本研究考虑了如何证明深度神经网络对真实世界的分布转化具有鲁棒性,提出了一种基于神经符号学的验证框架,并采用生成模型学习数据扰动,解决了现有验证方法对于许多最先进生成模型的 sigmoid 激活函数的处理问题,实验结果表明,该框架在 MNIST 和 CIFAR-10 数据集上能够显著优于现有方法,可以有效应对各种严峻的分布转化挑战。
Jun, 2022