May, 2023

稍微过参数的ReLU网络具有良好的损失景观

TL;DR研究了两层轻度超参数化ReLU神经网络对于平方误差丢失函数的一般有限输入数据集的损失景观,使用Jacobean的秩来界定局部和全局极小值集合的维度,并利用随机二进制矩阵的结果证明大多数激活模式对应于没有坏的可微局部极小值的参数区域。