通过研究隐性正则化的梯度轨迹,借鉴深度线性网络梯度下降隐式正则化向低秩解的偏好性,并提出显式惩罚来模拟这种偏好,从而使单层网络可以达到深度线性网络相同的低秩逼近性能。
Jun, 2023
提出了一种通过闭合形式的阈值函数来生成稀疏感应正则化器,并应用于低秩张量补全问题中,基于交替方向乘子法的高效算法被开发,证明生成的序列是有界的并且任何极限点都是一个稳定点。在合成和实际的数据集上的实验结果表明,所提出的算法在恢复性能方面优于现有技术方法。
Oct, 2023
基于对称正则化的贝叶斯矩阵补全方法,无需参数调整即可自动推断潜在因子数量。在合作过滤中表现良好。
Dec, 2015
本篇论文探讨了深度矩阵分解在矩阵补全和传感中的梯度下降隐式正则化对低秩解的影响,并发现添加深度会增强对低秩解的倾向,结果表明标准正则化的数学符号语言可能不足以完全涵盖梯度下降隐式正则化的机制。
May, 2019
本文从动态系统的角度对深度学习中隐藏的正则化进行了理论分析,并研究了等效于一些深度卷积神经网络的分层张量因式分解模型中的隐藏正则化。最终证明了该模型会自动进行低阶张量秩的隐藏正则化,实现与卷积网络相应的局部性隐式正则化。我们基于该理论设计了明确的惩罚局部性的正则化方法,并展示了它在非本地任务上提高现代卷积神经网络性能的能力,这违反了传统智慧认为需要改变结构的观点,凸显出通过理论分析神经网络的隐式正则化来增强其性能的潜力。
Jan, 2022
采用动力学系统视角和贪心低秩张量搜索方法,我们得出了张量秩作为衡量复杂度和深度神经网络隐式正则化的方法,进而解释了深度学习中的隐式正则化和现实世界数据的性质对泛化的影响。
Feb, 2021
矩阵分解模型在理解超参数模型的隐含偏差方面,作为一个重要的测试平台已被广泛研究。本文系统地研究了矩阵分解模型在解决矩阵补全问题时的隐含正则化,通过实验证明观测数据的连接性在隐含偏差中起着关键作用,其随着观察次数的增加由低核范数转变为低秩解。我们发现损失函数引导训练轨迹从低秩解演化到更高秩解的过程在损失函数的损失面内有一系列内在的不变流行,并基于此给出了训练轨迹的理论刻画,进一步建立了最小核范数的条件,与实验结果相吻合,同时为保证最小秩解提供了动力学刻画条件。我们的工作揭示了矩阵分解模型中数据连接性、训练动力学和隐含正则化之间复杂的相互作用。
May, 2024
通过矩阵分解问题的数学建模,探究梯度优化算法所诱导的隐含正则化问题,研究发现规范(norms)不能完全解释矩阵分解问题中的正则化问题,通过实验证明排名(rank)是更有用的解释方式以及有可能解释深度学习中的泛化问题。
May, 2020
本文提出了一种基于截断的异性低秩正则化方法,通过使用功率方法逼近奇异值分解以提高计算效率,相比于传统核范数正则化方法,实验结果表明所提出的方法在矩阵补全领域有更快的速度和更高的准确率。
本研究提出了一种针对深度图像修复的新的低梯度正则化方法,试图更好地利用深度图像的属性,将其与低秩正则化相结合,得到了实验效果比传统的稀疏梯度正则化更好的低秩低梯度方法。
Apr, 2016