Jul, 2023

通过隐藏层的线性可分性理解深度神经网络

TL;DR我们通过线性可分性度量深度神经网络的隐藏层输出来研究其特征,发现隐藏层输出的线性可分性度量与网络的训练性能存在同步性,即如果更新的权重可以增强隐藏层输出的线性可分性,更新后的网络将获得更好的训练性能,反之亦然。此外,我们研究了激活函数和网络规模(包括宽度和深度)对隐藏层线性可分性的影响,并通过数值实验证实了我们的发现在一些流行的深度网络上的有效性,包括多层感知器(MLP)、卷积神经网络(CNN)、深度置信网络(DBN)、ResNet、VGGNet、AlexNet、视觉 Transformer(ViT)和 GoogLeNet。