提出了一个可用于卷积神经网络的一般且高效的框架 CNN-Cert 以证明鲁棒性,它通过利用卷积层的特殊结构比现有算法快 17 倍到 11 倍,并且在获得相似或更好的证明上限和速度方面超越了最先进的算法。
Nov, 2018
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
该论文介绍了一种名为 CROWN 的通用框架,可以证明具有一般激活函数的神经网络分类器对于给定的输入数据点是健壮的,通过绑定给定激活函数的线性和二次函数,从而可以处理包括但不限于 ReLU、tanh、sigmoid 和 arctan 在内的一般激活函数,同时在可比的计算效率下,在 ReLU 网络上 CROWN 可以显着提高认证下限,同时 CROWN 能够展示其对包括 tanh、sigmoid 和 arctan 在内的具有一般激活函数的网络的有效性和灵活性。
本文提出了一种名为 CROWN-IBP 的新认证敌对训练方法,该方法结合了快速的 IBP 边界传播和基于紧线性松弛的后向传播,能够高效地提供强大的神经网络分类器,并在 MNIST 和 CIFAR-10 数据集上超过以往所有的线性松弛和边界传递认证防御的最佳结果
Jun, 2019
DeepCert 是一种通过支持真实世界图像扰动的编码和系统评估上下文相关的 DNN 鲁棒性以及通过生成上下文相关反例选择适合操作环境的 DNN 图像分类器的工具,可用于验证 DNN 图像分类器的健壮性。
Mar, 2021
本文介绍一种基于凸松弛框架的神经网络强鲁棒性验证算法,通过大量实验发现该算法在已有松弛算法上并没有显著提高,提示了一类算法具有固有的严格验证难度。
Feb, 2019
通过在网络中加入全局 Lipschitz 边界,文中提出的方法可以快速训练大型强健的神经网络,实现了可证明的最先进的可验证准确性。同时,该方法比最近的可证方法需要的时间和内存少得多,并在在线认证时产生可忽略的成本。
Feb, 2021
本文对深度神经网络抗对抗攻击的可靠性进行了研究和分析,并提出了目前的防御方法以及相应的理论和实践意义和发现,最后在不同数据集上提供了全面的鲁棒性验证和训练方法。
Sep, 2020
本文提出了一种新的半定松弛办法,用于证明针对任意 ReLU 网络的鲁棒性,显示该松弛法比先前的松弛法更严格,并在三个不同的训练对象对我们的建议松弛法不感兴趣。