神经网络的更严格风险证明
通过贝叶斯学习的视角考虑深度神经网络的对抗训练,并提出了一种具有可证明保证的贝叶斯神经网络(BNN)的对抗训练的原则性框架。该方法可在 MNIST、FashionMNIST 和 CIFAR-10 上训练出可证明鲁棒性的模型,并用于不确定性校准。这是第一次直接训练可证明的 BNN,可促进在安全关键应用中的部署。
Feb, 2021
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
本文提出了一种新算法来构建深度神经网络的预测分类置信度,并证明了其正确性保证。此外,展示了如何利用预测置信度实现高速 DNN 推理和安全规划,并在实验中展示了其在最先进的 DNN 中提供保证的能力。
Nov, 2020
该研究探讨了基于数据相关分布的随机预测模型在训练后的泛化能力以及基于 PAC-Bayes 分析的上界推导方法,同时研究了使用数据相关先验分布的应用,包括针对无界方差的损失函数的一种新颖的边界推导方法。
Jun, 2020
我们提出了一种算法,将校准预测与从学习理论推导的泛化界限相结合,构建深度神经网络的置信集,具有 PAC 保证 —— 即给定输入的置信集具有很高的真标签概率。我们演示了如何在 ResNet for ImageNet、视觉对象跟踪模型和半猎豹强化学习问题的动态模型上使用我们的方法构建 PAC 置信集。
Dec, 2019
通过采用贝叶斯误差进行韧性分析,本文探讨了在考虑数据分布的不确定性的情况下,获得可证实韧性和保持准确性的极限,并建立了基于个别类别和边界分布的可证实韧性准确性的上界。
May, 2024