May, 2024

一种用于替代梯度学习的广义神经切向核

TL;DR研究了神经网络训练方法中激活函数导数不可用时的问题,提出了代理梯度学习(SGL)的理论基础,并利用神经切向核(NTK)的推广 —— 代理梯度 NTK 分析了 SGL,通过数值实验验证了 SGL 在具有有限宽度和符号激活函数的网络中的有效性。