利普希茨有界深度神经网络的直接参数化
本研究提出了新的平衡神经网络参数化方法,该方法可以实现在训练期间的 Lipschitz bound 并提升强健性,并通过建立与凸优化、非欧几里得空间上的算子分裂和收缩神经微分方程的新连接来证明这些结果,在图像分类实验中表现出非常高的准确性和抵御对抗性攻击的能力。
Oct, 2020
本文提出了一种基于凸优化框架和半定规划的方法,用于计算 DNNs 的 Lipschitz 常数的保证上界,通过描述激活函数的性质,使得算法具有较高的准确性和可伸缩性,实验证明该方法的 Lipschitz 边界最准确,可用于有效提供稳健性保证。
Jun, 2019
本文介绍利用限制 Lipschitz 常数的深度神经网络训练,通过对每层的参数进行 Lipschitz 常数约束来提供灵敏度边界,实现差分隐私以保证网络的私密性,在固定的隐私保证下最大化梯度与噪声之比,并提供 Python 包以实现构建和私人训练。
May, 2023
我们研究和提出了一个新颖的针对 bi-Lipschitzness 的框架,该框架可以基于凸神经网络和 Legendre-Fenchel 对偶性实现对常数的直接和简单控制,并通过具体实验展示了其期望的性质。我们还将该框架应用于不确定性估计和单调问题设置,以展示其广泛的应用范围。
Apr, 2024
该论文以半定规划方法估计神经网络的 Lipschitz 常数,并通过动态规划递归来利用神经网络的级联结构,处理非线性激活函数、汇聚层和信号处理层。通过应用到不同的神经网络架构,展示了该方法的多功能性和计算优势。
May, 2024
通过设计一种基于交替方向乘子法的最优化方案来训练多层神经网络,同时鼓励通过保持其利普希茨常数来促进鲁棒性,从而解决基于输入的扰动的效应以及提高神经网络的鲁棒性。该文设计了两个训练程序,最终提供了两个例子来证明这种方法成功地提高了神经网络的鲁棒性。
May, 2020
本文介绍了一种新的代数视角,统一了各种类型的 1-Lipschitz 神经网络,包括凸势层、次正交层、基于正交性和谱方法的方法等,并证明了 AOL 对缩放权重产生偏置,同时通过我们的 SDP Lipschitz 层方法,证明了 SLL 的有效性。
Mar, 2023
该研究利用深度强化学习探讨了鲁棒策略网络的优势,通过分析其在振荡摆和 Atari Pong 等问题上的实证性能和稳健性,证明了具有小 Lipschitz 界限的策略网络相比由普通多层感知机或卷积神经网络组成的无约束策略在扰动、随机噪声和有针对性的对抗攻击方面更加稳健。此外,研究还发现选择一个具有非保守的 Lipschitz 界限和具有表达力的非线性层结构的策略参数化方法可以更好地平衡性能和稳健性的权衡,优于现有基于谱标准化的最新方法。
May, 2024
本文提出了利用 Lipschitz Bound Estimation 保证深度神经网络对抗攻击鲁棒性的有效方法,并通过图形分析支持 CNN 获得非平凡 Lipschitz constant 的困难。同时,采用 Toeplitz 矩阵将 CNN 转换为完全连接的网络,并运用实验证明了在特定数据分布中实际 Lipschitz constant 与获得紧密界定之间存在的 20-50 倍的差距。针对不同网络架构在 MNIST 和 CIFAR-10 上进行全面实验和比较分析。
Jul, 2022
通过 Block Convolution 正交参数化的方法,我们可以训练具有可证明的 Lipschitz 界限的大型卷积神经网络,其表现与现有方法相当,实用性强。
Nov, 2019