Jan, 2024

利用正交性训练低秩神经网络

TL;DR该研究通过分析神经网络在训练过程中的权重的奇异值分解 (SVD) 来探究神经网络的学习动力学。我们的调查发现,每个多维权重的 SVD 表示中存在一个正交基,在训练过程中保持稳定。基于此,我们介绍了一种新的训练方法,即利用神经网络的内在正交性的 Orthogonality-Informed Adaptive Low-Rank (OIALR) 训练。OIALR 可以无缝地集成到现有的训练工作流中,且准确度损失最小,通过在各种数据集和经典网络架构上进行基准测试也得以证明。通过适当的超参数调整,OIALR 可以超越传统的训练设置,包括最先进的模型。