BriefGPT.xyz
Jun, 2024
稀疏激活下的神经网络学习
Learning Neural Networks with Sparse Activations
HTML
PDF
Pranjal Awasthi, Nishanth Dikkala, Pritish Kamath, Raghu Meka
TL;DR
许多成功的神经网络结构中的核心组件是一个具有非线性激活函数的两个全连接层的MLP块。我们在本文中对展示出激活稀疏性的MLP层的PAC可学习性进行了形式化研究,并呈现了多种实验结果,表明这类函数相对于非稀疏的对应物具有计算和统计上的优势。我们希望对“激活稀疏”的网络有更好的理论认识,以便能够在实践中利用激活稀疏性。
Abstract
A core component present in many successful
neural network architectures
, is an
mlp block
of two fully connected layers with a non-linear activation in between. An intriguing phenomenon observed empirically, incl
→