计算 ReLU 网络的局部 Lipschitz 常数
神经网络对输入的微小敌对扰动非常敏感,该研究在随机 ReLU 神经网络(即权重随机选择并使用 ReLU 激活函数的神经网络)中研究了 Lipschitz 常数,并在浅层神经网络中表征了 Lipschitz 常数,而在足够宽的深层神经网络中证明了 Lipschitz 常数的上下界。这些边界在深度上存在对数因子的匹配。
Nov, 2023
该论文主要研究采用整流线性单元(ReLUs)作为激活函数的前馈神经网络(FNNs)的局部利普希茨常数的计算,介绍了一种基于半定规划问题(SDP)和余问题的计算上界的方法,提出了一种模型简化方法并通过数值实例验证了这些方法的有效性。
Oct, 2023
本文提出了一种训练算法插件,可以有效地减小神经网络的局部 Lipschitz 上界,以提高神经网络的自然精度和可证明的精度之间的权衡,并在 MNIST、CIFAR-10 和 TinyImageNet 数据集上展示了该方法在不同网络结构下均能优于现有的最先进方法。[Simplified Chinese]
Nov, 2021
本文提供了两种计算和证明最小失真非平凡下界的算法 Fast-Lin 和 Fast-Lip,可以用于解决具有 ReLU 结构的神经网络的鲁棒性问题。相比于现有的解决方法,这两种方法计算速度更快,下界的质量更高,同时作者还证明了除非 NP=P,否则无法用多项式时间算法求解最小的 l1 失真。
Apr, 2018
本文提出了 AutoLip 和 SeqLip 两种神经网络架构方法的 Lipschitz 常数的自动上界估计算法,并探讨了这种算法在计算大型卷积和顺序神经网络时的使用情况和启发式技巧。我们提供了使用 PyTorch 环境的 AutoLip 实现,可以使用更精确的 Lipschitz 估计来更好地评估神经网络对小扰动的鲁棒性或进行正则化。
May, 2018
研究神经网络与输入的 Lipschitz 连续性约束,提供一种计算前馈神经网络 Lipschitz 常数上界的简单技术,进而以受限优化问题的形式训练神经网络并使用投影随机梯度方法求解,实验证明该方法优于其他常用规则化器,特别是在仅有少量训练数据时。
Apr, 2018
通过设计一种基于交替方向乘子法的最优化方案来训练多层神经网络,同时鼓励通过保持其利普希茨常数来促进鲁棒性,从而解决基于输入的扰动的效应以及提高神经网络的鲁棒性。该文设计了两个训练程序,最终提供了两个例子来证明这种方法成功地提高了神经网络的鲁棒性。
May, 2020
本研究提出了一种变分框架来学习深度神经网络的激活函数,旨在增加网络的容量并控制输入输出关系的 Lipschitz 常数的上界,其中引入了线性 Lipschitz 常数的全局界限和一个基于级联线性激活函数的无穷维度变分问题,通过在激活参数上实施 l1 约束来减少了问题的维度,从而获得了稀疏的非线性激活函数,并在标准 ReLU 网络及其变化 PReLU 和 LeakyReLU 上进行了实验验证。
Jan, 2020
我们通过导出上下界的极小极大逼近误差,确定了基于有限精度权重的深度 ReLU 神经网络逼近 Lipschitz 函数的三种情况:欠量化、过量化和适当量化。乍一看,深度网络在逼近 Lipschitz 函数时表现出内在的记忆有效性,与浅层网络相比,具有固有优势。此外,我们还发展了深度和精度之间的权衡概念,表明具有高精度权重的网络可以转化为具有低精度权重的功能等效更深层的网络,并保持记忆有效性。这个想法类似于 sigma-delta 模数转换,在信号样本的量化中超采样率与分辨率之间进行权衡。我们改进了对 Lipschitz 函数的 ReLU 网络逼近结果,并描述了一种独立通用的位提取技术的改进。
May, 2024
本文提出了一种基于凸优化框架和半定规划的方法,用于计算 DNNs 的 Lipschitz 常数的保证上界,通过描述激活函数的性质,使得算法具有较高的准确性和可伸缩性,实验证明该方法的 Lipschitz 边界最准确,可用于有效提供稳健性保证。
Jun, 2019