用于公平性的 GNN 的 Lipschitz 稳定性表征
本文提出了利用 Lipschitz Bound Estimation 保证深度神经网络对抗攻击鲁棒性的有效方法,并通过图形分析支持 CNN 获得非平凡 Lipschitz constant 的困难。同时,采用 Toeplitz 矩阵将 CNN 转换为完全连接的网络,并运用实验证明了在特定数据分布中实际 Lipschitz constant 与获得紧密界定之间存在的 20-50 倍的差距。针对不同网络架构在 MNIST 和 CIFAR-10 上进行全面实验和比较分析。
Jul, 2022
通过设计一种基于交替方向乘子法的最优化方案来训练多层神经网络,同时鼓励通过保持其利普希茨常数来促进鲁棒性,从而解决基于输入的扰动的效应以及提高神经网络的鲁棒性。该文设计了两个训练程序,最终提供了两个例子来证明这种方法成功地提高了神经网络的鲁棒性。
May, 2020
本文介绍了一种新的框架 NIFTY,能够用于任何图神经网络来学习公平且具有稳定性的表示,并使用唯一目标函数和 Lipschitz 常量开发了一种分层权重标准化来增强 GNN 中的神经消息传递。作者还引入了三个新的图形数据集来演示他们提出的框架的有效性
Feb, 2021
本研究提出了新的平衡神经网络参数化方法,该方法可以实现在训练期间的 Lipschitz bound 并提升强健性,并通过建立与凸优化、非欧几里得空间上的算子分裂和收缩神经微分方程的新连接来证明这些结果,在图像分类实验中表现出非常高的准确性和抵御对抗性攻击的能力。
Oct, 2020
研究了拓扑结构变化对图神经网络输出的影响,证明了使用积分 Lipschitz 过滤器的图卷积与相应非线性混合效应的组合可以实现稳定性和高频信息的判别力,解释了 GNNs 卓越性能的原因。
May, 2019
本文提出了一种基于凸优化框架和半定规划的方法,用于计算 DNNs 的 Lipschitz 常数的保证上界,通过描述激活函数的性质,使得算法具有较高的准确性和可伸缩性,实验证明该方法的 Lipschitz 边界最准确,可用于有效提供稳健性保证。
Jun, 2019
本文研究了图卷积神经网络在图拓扑的随机小扰动下的稳定性问题,通过导出了一个新的界限,明确了未经扰动和经扰动图卷积神经网络输出之间的期望差异,该界限明确取决于拉普拉斯矩阵特征对的扰动程度以及插入或删除的边。在此基础上,我们定量地描述了特定边的扰动对网络稳定性的影响,并利用小扰动分析工具来以闭合但近似的形式表达界限,以提高结果的解释性,而无需计算任何扰动移位运算符。最后,我们对所提出的界限的有效性进行了数值评估。
Dec, 2023
研究神经网络与输入的 Lipschitz 连续性约束,提供一种计算前馈神经网络 Lipschitz 常数上界的简单技术,进而以受限优化问题的形式训练神经网络并使用投影随机梯度方法求解,实验证明该方法优于其他常用规则化器,特别是在仅有少量训练数据时。
Apr, 2018
我们研究和提出了一个新颖的针对 bi-Lipschitzness 的框架,该框架可以基于凸神经网络和 Legendre-Fenchel 对偶性实现对常数的直接和简单控制,并通过具体实验展示了其期望的性质。我们还将该框架应用于不确定性估计和单调问题设置,以展示其广泛的应用范围。
Apr, 2024