具有弹性控制和较大利普希茨常数的认证鲁棒模型
通过开发一个鲁棒的训练算法和有效计算神经网络的 Lipschitz 常数的方法,可以直接操控输入空间的决策边界,提高深度分类器对抗性扰动的鲁棒性。在 MNIST、CIFAR-10 和 Tiny-ImageNet 数据集上的实验证实了该算法的竞争性改进。
Sep, 2023
使用证明可靠性的 robustness 方法中,Lipschitz 常量和随机平滑相结合的 SPLITZ 框架能够有效地提升深度网络的准确性和鲁棒性。
Jul, 2024
本文提出了一种训练算法插件,可以有效地减小神经网络的局部 Lipschitz 上界,以提高神经网络的自然精度和可证明的精度之间的权衡,并在 MNIST、CIFAR-10 和 TinyImageNet 数据集上展示了该方法在不同网络结构下均能优于现有的最先进方法。[Simplified Chinese]
Nov, 2021
针对神经网络模型在输入数据遭到恶意篡改时的高敏感度,提出一种能够证明防御网络免受攻击的模型的构建方法,通过计算 Lipschitz 常数与预测边界之间的关系,提出一种计算有效的对不同的复杂网络广泛适用的鉴别器大小的方法,并提出一种有效的训练程序,提高数据点周围可证明的保护区域和网络的鲁棒性。
Feb, 2018
通过设计一种基于交替方向乘子法的最优化方案来训练多层神经网络,同时鼓励通过保持其利普希茨常数来促进鲁棒性,从而解决基于输入的扰动的效应以及提高神经网络的鲁棒性。该文设计了两个训练程序,最终提供了两个例子来证明这种方法成功地提高了神经网络的鲁棒性。
May, 2020
本文提出了一个基于图的学习框架来训练在对抗扰动下具有稳健性的模型,并通过 Lipschitz 约束将对抗性稳健学习问题形式化为损失最小化问题,设计了一个稳健训练方案来收敛到拉格朗日函数的鞍点。 最终通过实验表明,在达到期望的标准表现的同时提高模型的稳健性存在一定的基本下限。
Jun, 2020
该研究针对分类器的脆弱性进行讨论,提出 Cross-Lipschitz 正则化函数可提高分类器对抗攻击的鲁棒性,并给出了实例具体的下界。在不影响分类性能的情况下,使用该正则化函数可以提高核方法和神经网络的鲁棒性。
May, 2017
通过探究 Lipschitz 连续性的概念,该研究提出了一种理论基础和实用解决方案来确保深度神经网络的可靠性,以对抗敌对攻击,在输入中添加几乎不可察觉的扰动来误导网络。我们提出了一种新的算法,将输入域重新映射到受限范围内,减小 Lipschitz 常数,从而提高鲁棒性。与现有的反对抗性训练模型不同,我们的方法几乎没有成本,可以与现有模型集成而无需重新训练。实验结果表明,我们的方法的普适性,可以与各种模型结合,实现鲁棒性的增强。此外,我们的方法在 RobustBench 排行榜上为 CIFAR10、CIFAR100 和 ImageNet 数据集实现了最佳鲁棒准确度。
Jun, 2024
利用最优传输的 Kantorovich- Rubinstein 对偶公式的铰链正则化版本,提出了一个新的框架来学习 1-Lipschitz 神经网络,并在此基础上进行分类。该方法能够提高网络的鲁棒性、具有可验证的鲁棒性边界,并在不降低准确度的前提下解决了这一问题。
Jun, 2020