May, 2023

神经特征激活值分析以提高 ReLU 网络特征学习

TL;DR本文研究神经网络中 individual ReLU units 的 characteristic activation values,提出 ReLU unit 的 characteristic activation set 与 ReLU networks 中的 learned features 之间的联系,由此推导出新的洞见 —— 哪些现代深度学习中的规范化技术可用于正则化和稳定化 SGD 优化,最后提出几何方法用于对 ReLU 网络进行参数化以提高特征学习。实验证明该方法可通过简单调整初始化策略和更大的学习速率来提高优化稳定性、收敛速度和泛化性能。