神经网络的鲁棒性:一种概率和实用的方法
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
引入了一种基于概率鲁棒性的贝叶斯神经网络(BNNs)的测量方法,定义为在某个有界集合内是否存在另一个点,使得 BNN 的预测在这两个点之间有差异的概率,并且可以用于量化对抗样本的存在概率。通过基于概率模型的统计验证技术,开发了一个框架,可以估计具有统计保证的 BNN 的概率鲁棒性,并在 MNIST 和 GTSRB 数据集的图像分类任务上提供了实验对比。结果可以在对抗环境中量化 BNN 预测的不确定性。
Mar, 2019
用具有适当启发式条件的一组算法基于神经网络的输出分布来验证其概率,同时计算和迭代优化神经网络输出概率的下界和上界,并通过应用非概率性神经网络验证中的最先进的边界传播和分支约束技术,显著提高了解决时间。
May, 2024
本文提出了一种用于验证神经网络鲁棒性的新算法 Charon,并通过实验评估其在数百个基准测试中显著优于 AI^2,Reluplex 和 Reluval 等三种最先进的工具。
Apr, 2019
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
该研究提出了一种定量指标来评估神经网络模型的内在稳健性,并通过损失可视化的方式解释了对抗攻击和防御机制。该指标具有快速生成、结构和参数规模无关、可靠性高的优点,并提供了一种相对于不同测试设置不变的评估方法。
May, 2019
为高维自主系统提供行为保证是人工智能安全领域中的一个特别具有挑战性的问题。本文提出了一个基于主动学习、不确定性量化和神经网络验证的新方法,其中的核心是一种称为不精确神经网络的集成技术,它提供了用于引导主动学习的不确定性。通过在多个物理模拟器上对经过增强学习的控制器进行评估,证明了我们的方法可以为高维系统提供有用且可扩展的保证。
Aug, 2023