BriefGPT.xyz
May, 2022
反馈梯度下降:使用正交性进行高效稳定的深度神经网络优化
Feedback Gradient Descent: Efficient and Stable Optimization with Orthogonality for DNNs
HTML
PDF
Fanchen Bu, Dong Eui Chang
TL;DR
本文提出了一种名为“反馈梯度下降(FGD)”的新方法,该方法基于在Stiefel流形的切空间上连续动力系统的Euler离散化,同时高效性和稳定性皆优于现有最先进方法,在大量图像分类实验中表现卓越。
Abstract
The
optimization
with
orthogonality
has been shown useful in training
deep neural networks
(DNNs). To impose
→