- SPLITZ:通过分割的 Lipschitz 随机平滑实现可认证的鲁棒性
使用证明可靠性的 robustness 方法中,Lipschitz 常量和随机平滑相结合的 SPLITZ 框架能够有效地提升深度网络的准确性和鲁棒性。
- 视觉转换器嵌入空间的引人注目的等效结构
基于视觉转换器作为例子,通过分析和系统实验,我们展示了表示空间由大型分段线性子空间和局部正常空间组成,存在着不同输入具有相同表示和在视觉上难以区分的不同表示的输入。这些经验结果进一步通过基础模型的局部方向估计来验证。因此,得到的表示会改变下 - 使用拉格朗日技术对连续深度模型进行鲁棒性分析
本文提出一种统一的确定性和统计性 Lagrangian 验证技术,用于量化任何连续时间过程的行为鲁棒性,故文中回顾了 LRT-NG,SLR 和 GoTube 算法,比较了确定性和统计性保证的不同方法,并通过实验证明 Lagrangian 技 - 理解随机梯度下降和自适应梯度方法之间的鲁棒性差异
使用随机梯度下降和自适应梯度方法来训练深度神经网络,通过实验证明,尽管使用这些方法训练的模型的标准泛化性能之间的差异很小,但使用随机梯度下降来训练的模型在输入扰动下表现出更高的鲁棒性。同时研究了梯度下降和符号梯度下降在模拟自然信号的合成数据 - 混合专家模型的对抗鲁棒性
通过理论分析和实验,研究表明,相比密集的神经网络,使用稀疏的 Mixture of Expert 模型具有更好的鲁棒性,可以抵抗对抗性的攻击,这使得它们成为增强学习等应用中的有力工具。
- 全局单射 ReLU 网络
本文探讨了深度神经网络中全连接和卷积层的可逆性和稳定性,指出了扩张性因子对网络可逆性的必要性和充分性,证明了任何 Lipschitz 映射都可以近似为可逆的 ReLU 网络,并提出了一个基于随机投影的全局可逆性模型。
- 自注意力的利普希茨常数
本研究探讨了自注意力模型的 Lipschitz 常数,并提出了一种 L2 自注意力模型来代替标准点积自注意力模型,同时推导出了 L2 自注意力模型的 Lipschitz 常数上限,并证明了其在实践中的可行性和实用性,包括用于字符级别语言建模 - MM无梯度方法求解鞍点问题
文章介绍了一种面向凸 - 凹鞍点问题的方法,使用梯度有限差分进行随机逼近,在某些条件下可以将所需的 oracle 调用次数降低至原来的 1/(log n)倍
- 利普希茨常数作为对抗性样本防御的局限性
研究了使用 Lipschitz 常数限制神经网络对抗性示例的易感性的最近方法,分析了计算 Lipschitz 常数的最新方法,指出了目前计算方法存在理论和实践的限制,并认为解决这个问题是一条可行的未来研究方向,以实现认证的对抗防御。
- L2 - 非扩张神经网络
本文提出了一种良好条件的神经网络,通过控制 Lipschitz 常数来实现最大的鲁棒性,不需要任何对抗性训练,提高了对白盒有界 L2 对抗攻击的鲁棒性和对有噪声的部分随机标签数据的泛化能力,具有很强的实用性。
- NIPSLipschitz-Margin 训练:深度神经网络扰动不变的可扩展认证
针对神经网络模型在输入数据遭到恶意篡改时的高敏感度,提出一种能够证明防御网络免受攻击的模型的构建方法,通过计算 Lipschitz 常数与预测边界之间的关系,提出一种计算有效的对不同的复杂网络广泛适用的鉴别器大小的方法,并提出一种有效的训练 - ICML坐标下降法施行高斯 - 南韦尔法则优于随机选择
这篇论文主要研究随机坐标下降算法,比较了高斯 - 南威尔选择规则和随机选择规则的收敛率,实验证明高斯 - 南威尔规则在计算成本较高时表现显著好于随机选择,提出了一种更快的高斯 - 南威尔 - Lipschitz 规则以及分析了相关近似规则。
- 一类结构非线性规划的序贯凸规划方法
本文研究了一个广泛的结构化非线性规划问题,并提出了顺序凸规划方法,在每次迭代中通过解决一个凸规划问题来解决它们。在一些合适的假设下,我们得出方法生成的序列的任何积累点都是 SNLP 问题的 KKT 点。此外,我们提出了 SCP 方法的变体,