BriefGPT.xyz
May, 2021
由数据维度参数化的ReLU网络训练的计算复杂度
The Computational Complexity of ReLU Network Training Parameterized by Data Dimensionality
HTML
PDF
Vincent Froese, Christoph Hertrich, Rolf Niedermeier
TL;DR
本文研究了使用修正线性单元(ReLU)训练简单神经网络的计算复杂度,并分析了训练数据维数对计算复杂度的影响。我们提供了参数化复杂度的结果,并且针对各种损失函数分析了两层ReLU网络的训练问题。
Abstract
Understanding the
computational complexity
of training simple
neural networks
with
rectified linear units
(ReLUs) has recently been a subj
→