May, 2023

神经特征激活值分析以提高ReLU网络特征学习

TL;DR本文研究神经网络中individual ReLU units的characteristic activation values,提出ReLU unit的characteristic activation set与ReLU networks中的learned features之间的联系,由此推导出新的洞见——哪些现代深度学习中的规范化技术可用于正则化和稳定化SGD优化,最后提出几何方法用于对ReLU网络进行参数化以提高特征学习。实验证明该方法可通过简单调整初始化策略和更大的学习速率来提高优化稳定性、收敛速度和泛化性能。