深度学习的核范数正则化
本文引入了自适应核范数正则化方法,通过该方法提出了一种基于自适应核范数的降秩估计方法,同时该降秩估计方法在计算上高效,并且在模拟研究和基因学应用中,表现出优异的性能。
Jan, 2012
该研究提出了一种基于 Frobenius 规范化 Jacobian 矩阵的网络后处理方法,以提高深度神经网络的鲁棒性,从而改善其对抗攻击的表现,同时对网络准确性的影响也很小。
Mar, 2018
该研究对具有平方误差的深层线性网络的 dropout 正则化器进行了正式且完整的表征,并表明显式正则化器由 $L_2$-path 正则化器和其他重新缩放不变项组成,引出了网络映射的平方核范数。最后,作者通过实证结果验证了他们的理论发现。
May, 2019
提出一个新的方法,将 Schatten 范数的 Hessian 矩阵应用于正则化解决线性反演成像问题,并通过原始 - 对偶算法进行求解,该方法在实验中证明在应对多种真实和模拟数据的情况下表现良好。
Sep, 2012
本文探讨了在张量补全中使用矩阵补全技术的不足之处,并证明了直接最小化张量核范数的凸优化方法对于提高样本需求是有益的。我们通过开发一系列代数和概率技术来建立结果,例如张量核范数的次微分的表征以及张量鞅的浓度不等式,这可能对其他张量相关问题具有独立的兴趣和有用性。
May, 2014
本文研究了 $3$ 维张量的核范数及其矩阵展开的核范数之间的关系,并提出了相应的上下界和计算标准,进一步推广到 $N$ 维张量,并在 $N=3$ 的情况下获得了最优解。
Dec, 2014
本文提出一种基于 Logarithm-Determinant 的等级逼近方法,用于子空间聚类应用,并开发有效的优化策略,以实现收敛到一个稳定点,并在人脸聚类和运动分割任务方面比目前最先进的子空间聚类算法具有更好的效果。
Aug, 2015
本文研究了机器学习中的排名聚合问题及其变种 —— 协同排名问题,提出了一种核范数正则化的优化方法用于估算用户偏好。实验结果表明,随着观测次数的增加,评估用户偏好的误差也相应减小。
Oct, 2014
本文探讨了神经网络架构的泛化能力,发现训练和泛化在整洁和结构化的数据集上很容易,在嘈杂和非结构化的数据集上则更难。通过使用 “信息” 空间和 “噪声” 空间,本文证明了即使是常数宽度的神经网络,对于足够好的数据集也可以证明泛化。
Jun, 2019
利用矩阵流形的几何性质,我们提出了一种自动优化方法,对神经网络的归一化参数进行优化。通过层次化的权重归一化以限制利普希茨常数并增强梯度的可靠性,使训练后的网络适用于控制应用。通过初始化网络和根据初始化网络的 2-2 增益对数据进行归一化,我们的方法首先对网络进行初始化。然后,所提出的算法基于高维球面上的指数映射来进行更新。给定一个更新方向(如负内腔梯度),我们提出了两种不同的方式来确定下降的步长。第一种算法利用目标函数沿着组合球面流形上定义的更新曲线进行的自动微分。利用方向二阶导数信息,无需显式构造海森矩阵。第二种算法利用架构感知的主导次数极小化框架进行神经网络的优化。通过这些新进展,所提出的方法避免了手动调优和学习率的调度,从而为优化归一化神经网络提供了自动化的流程。
Dec, 2023