本篇论文介绍了在安全重要应用领域中使用深度神经网络的问题,针对其可靠性和安全性的担忧,提出了采用形式化验证来保证其运行符合预期,并通过两个方向,即设计可扩展性的验证技术和识别可验证的深度学习系统的设计选择来缓解这一挑战。
Jan, 2018
本研究提出了一种通过使用过度逼近来减小神经网络规模,以提高神经网络验证技术的框架,并使用反例引导调整逼近,以验证大型神经网络。实验证明,该方法对验证大型神经网络具有很大的潜力。
Oct, 2019
本书介绍了形式验证的基本概念及其在神经网络和深度学习中的应用,以保证其安全性、健壮性和正确性。
Sep, 2021
文章介绍了一种基于神经网络和逻辑规范的神经符号验证框架 Neuro-symbolic Verification,使得现有的神经网络验证基础设施可用于分析复杂的实际特性,从而避免现有神经网络验证技术的严重局限。
Mar, 2022
深度神经网络在安全方面的正式验证问题已经扩展到计数版本 (DNN-Verification),为了在给定安全属性的领域中计算不安全区域的数量。为了解决这个问题的复杂性,本研究提出了一种基于可达性分析、符号线性松弛和并行计算的新策略,以增强现有的精确和近似 DNN 计数的形式验证的效率。在标准的形式验证基准和现实的机器人场景上进行的实证评估表明,在可扩展性和效率方面都取得了显著的改进,使得这种技术能够用于复杂的机器人应用。
Dec, 2023
使用二值化神经网络 (BNNs) 的强化学习算法以提高可验证性的方法,解决了神经网络在安全关键场合应用上不可靠的问题。在训练 Atari 环境中的 BNNs 之后,我们验证了其鲁棒性属性。
本文提出了一种通用的神经网络形式验证框架,通过将验证问题转化为最优化问题,并通过我们提出的松弛算法得到可靠的上界,从而可对神经网络的输入和输出属性满足的规范进行形式化验证。
Mar, 2018
利用形式验证来确保计算机视觉模型的安全性,针对图像分类进行了拓展,提出一种一般性的方案来证明物体检测模型的鲁棒性,并提供了与最先进的验证工具兼容的实现策略。
Jul, 2024
本文讨论了神经网络在安全和保密方面应用的局限性,提出了一些自动推理技术来提供神经网络性能的保障,并且对现有的神经网络自动验证方法进行了综合分类和阐述,同时讨论了存在的局限性以及未来研究的方向。
May, 2018
本文提出一种名为 Deep Verifier Networks 的崭新框架,使用基于条件变分自编码器的深度生成模型验证深度判别模型的输入和输出,在结构预测任务中的异常检测取得了最新的研究结果。
Nov, 2019