深度神经网络的 Lipschitz 常数的组合估计
本文提出了一种基于凸优化框架和半定规划的方法,用于计算 DNNs 的 Lipschitz 常数的保证上界,通过描述激活函数的性质,使得算法具有较高的准确性和可伸缩性,实验证明该方法的 Lipschitz 边界最准确,可用于有效提供稳健性保证。
Jun, 2019
本文提出了 AutoLip 和 SeqLip 两种神经网络架构方法的 Lipschitz 常数的自动上界估计算法,并探讨了这种算法在计算大型卷积和顺序神经网络时的使用情况和启发式技巧。我们提供了使用 PyTorch 环境的 AutoLip 实现,可以使用更精确的 Lipschitz 估计来更好地评估神经网络对小扰动的鲁棒性或进行正则化。
May, 2018
本文提出了利用 Lipschitz Bound Estimation 保证深度神经网络对抗攻击鲁棒性的有效方法,并通过图形分析支持 CNN 获得非平凡 Lipschitz constant 的困难。同时,采用 Toeplitz 矩阵将 CNN 转换为完全连接的网络,并运用实验证明了在特定数据分布中实际 Lipschitz constant 与获得紧密界定之间存在的 20-50 倍的差距。针对不同网络架构在 MNIST 和 CIFAR-10 上进行全面实验和比较分析。
Jul, 2022
该论文以半定规划方法估计神经网络的 Lipschitz 常数,并通过动态规划递归来利用神经网络的级联结构,处理非线性激活函数、汇聚层和信号处理层。通过应用到不同的神经网络架构,展示了该方法的多功能性和计算优势。
May, 2024
神经网络对输入的微小敌对扰动非常敏感,该研究在随机 ReLU 神经网络(即权重随机选择并使用 ReLU 激活函数的神经网络)中研究了 Lipschitz 常数,并在浅层神经网络中表征了 Lipschitz 常数,而在足够宽的深层神经网络中证明了 Lipschitz 常数的上下界。这些边界在深度上存在对数因子的匹配。
Nov, 2023
通过设计一种基于交替方向乘子法的最优化方案来训练多层神经网络,同时鼓励通过保持其利普希茨常数来促进鲁棒性,从而解决基于输入的扰动的效应以及提高神经网络的鲁棒性。该文设计了两个训练程序,最终提供了两个例子来证明这种方法成功地提高了神经网络的鲁棒性。
May, 2020
通过引入一个分割大卷积块为多个小块的方法,本研究提出了一种加速卷积神经网络 Lipschitz 常数估计的方法,通过调整分割因子,可以平衡准确度和可伸缩性,并且在一系列实验中展示出比现有基准方法更好的可伸缩性和可比的准确度。
Mar, 2024
研究神经网络与输入的 Lipschitz 连续性约束,提供一种计算前馈神经网络 Lipschitz 常数上界的简单技术,进而以受限优化问题的形式训练神经网络并使用投影随机梯度方法求解,实验证明该方法优于其他常用规则化器,特别是在仅有少量训练数据时。
Apr, 2018
本研究提出了一种变分框架来学习深度神经网络的激活函数,旨在增加网络的容量并控制输入输出关系的 Lipschitz 常数的上界,其中引入了线性 Lipschitz 常数的全局界限和一个基于级联线性激活函数的无穷维度变分问题,通过在激活参数上实施 l1 约束来减少了问题的维度,从而获得了稀疏的非线性激活函数,并在标准 ReLU 网络及其变化 PReLU 和 LeakyReLU 上进行了实验验证。
Jan, 2020
本文提出了一种训练算法插件,可以有效地减小神经网络的局部 Lipschitz 上界,以提高神经网络的自然精度和可证明的精度之间的权衡,并在 MNIST、CIFAR-10 和 TinyImageNet 数据集上展示了该方法在不同网络结构下均能优于现有的最先进方法。[Simplified Chinese]
Nov, 2021