Oct, 2019

利用无限宽深度神经网络在小数据任务中的能力

TL;DR该研究表明:(a) 在无穷宽度神经网络 (NNs) 上应用 l2 损失 (通过梯度下降法) 训练,并将学习率设置为无穷小,与 (b) 基于所谓的神经切向核 (NTK) 的核回归是相等的。在此基础上,对 NTK 进行高效计算的算法已被提出,表明 NTK 在低数据任务上表现良好。