通过在网络中加入全局 Lipschitz 边界,文中提出的方法可以快速训练大型强健的神经网络,实现了可证明的最先进的可验证准确性。同时,该方法比最近的可证方法需要的时间和内存少得多,并在在线认证时产生可忽略的成本。
Feb, 2021
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
本篇论文提出了一种称之为 DeepGlobal 的全局稳健性验证框架,通过利用 SMT 求解器 Z3 进行实现并进行多重改进,来评估该框架在一系列基准数据集上的有效性和可行性。
Apr, 2023
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
该论文提出了一种新的框架 GCERT,可根据语义层面的图像变异准确地验证神经网络的鲁棒性,并通过生成模型的潜在空间中的方向将全面的语义层面的图像变异一致地表示为整体,以获得精确的分析友好的输入空间表示,同时大大缩短了鲁棒性认证的时间成本。
Jun, 2023
本文提出了一种用于验证神经网络鲁棒性的新算法 Charon,并通过实验评估其在数百个基准测试中显著优于 AI^2,Reluplex 和 Reluval 等三种最先进的工具。
Apr, 2019
本文提出了一种针对图神经网络和标签 / 特征传播模型的验证可证(非)鲁棒性的方法,并通过 PageRank 和马尔可夫决策过程的相关性来计算证书。我们同时研究了一种鲁棒性训练程序,以增加可证明鲁棒性节点的数量,同时保持或提高了干净的预测准确性。
Oct, 2019
本研究考虑了如何证明深度神经网络对真实世界的分布转化具有鲁棒性,提出了一种基于神经符号学的验证框架,并采用生成模型学习数据扰动,解决了现有验证方法对于许多最先进生成模型的 sigmoid 激活函数的处理问题,实验结果表明,该框架在 MNIST 和 CIFAR-10 数据集上能够显著优于现有方法,可以有效应对各种严峻的分布转化挑战。
Jun, 2022
本研究提出了一种全局鲁棒性验证方法,用于确定网络分类器不改变其分类的情况,通过利用依赖关系和对未知输入进行的对抗性攻击,该验证方法相较于现有的验证方法在计算精确度和速度方面有显著提升。
Feb, 2024
通过提出一种新的方法,同时追求高准确性和具有认证的概率鲁棒性,我们的实验显示该方法在多个模型和数据集上的认证率和准确性方面明显优于现有方法。
Sep, 2023