对抗样本的可证明证书:在多面体的并集中嵌套一个球体
该研究提出了一种名为 LayerCert 的新框架,利用 ReLU 网络的分层几何结构解决点精确的 L_p 鲁棒性问题,进一步减少所需解决的凸规划数量和大小并提高了性能。
Jul, 2020
本文提出了一种广义线性可证明鲁棒性方法来学习深度 ReLU 分类器,通过考虑凸外似集合,去开发基于线性规划的强健优化程序,提出了一种类似于反向传播网络的方法,以很高效的方式产生能够保证鲁棒性损失的优化方法,并展示了该方法在多项任务中的应用。
Nov, 2017
本文提出了一种在前馈神经网络中检查局部鲁棒性的快速程序,通过几何投影分析给定点周围区域内的决策边界以及将输入空间划分为凸多面体区域的方式,在高效同时保证准确性,解决了之前使用的不精确验证方法和全面验证者效果不佳的问题。
Feb, 2020
通过解决凸松弛,可以证明神经网络对抗性示例的鲁棒性。最近,提出了一种基于半定编程松弛的较少保守的鲁棒性证明方法。本文提出一种几何技术,用于确定该 SDP 证书是否是精确的,并在单隐藏层下证明该证书的精确性,并验证其理论洞见。
Jun, 2020
该研究提出了一种概率证明框架 PROVEN,用于验证神经网络在输入加噪时的鲁棒性,可证明分类器的 top-1 预测在受限的 Lp 范数扰动下不会发生改变,证书是基于现有的神经网络鲁棒性验证框架,该方法在 MNIST 和 CIFAR 神经网络模型的实验中取得了 75% 的提升。
Dec, 2018
本文提出一种基于深度 ReLU 网络的攻击不可知的稳健性证书,用于多标签分类问题,通过利用 ReLU 网络的分段线性结构,提出了两个距离下界,分别为单纯形证书和决策边界证书,其中单纯形证书具有闭合形式,可微性和计算速度快的特点,并在 MNIST 数据集上验证其理论有效性。
Feb, 2019
研究神经网络模型的鲁棒性认证问题,提出一种框架来限制输出标志,以使加宽限制后的问题能够通过增广 Lagrangian 方法来解决,证明了非均匀限制具有更大的体积和更好的鲁棒性,并提供了一种定量的数据 - 不可知度量输入特征的鲁棒性。
Mar, 2019
通过离散化输入空间,使用有限优化来逼近点称健壮性的两种变体问题,并证明误差有界,进一步通过解决二人博弈问题的方式解决这些优化问题,该论文提供了一种框架来评估神经网络的点称健壮性。
Jul, 2018
本文提出了一种新的基于 $l_p$-norms 的白盒对抗攻击方法,通过最小化扰动的大小来改变特定输入的类别,这个方法具有几何直观性,是一种性能优越的攻击方法,比专门针对一个 $l_p$-norm 的攻击方法具有更好的鲁棒性,并且可以解决梯度掩盖的问题。
Jul, 2019
通过在网络中加入全局 Lipschitz 边界,文中提出的方法可以快速训练大型强健的神经网络,实现了可证明的最先进的可验证准确性。同时,该方法比最近的可证方法需要的时间和内存少得多,并在在线认证时产生可忽略的成本。
Feb, 2021