May, 2024

增长微小网络:发现并优化表达能力瓶颈

TL;DR在这篇研究论文中,我们提出了一种新的机器学习方法,通过在训练过程中动态地调整神经网络的架构来解决架构选择和优化问题,从而避免了需要进行昂贵的架构参数优化。我们通过从反向传播中提取信息来检测和解决功能梯度路径上的表达能力瓶颈,从而实现可扩展性并优化训练过程,展示了在 CIFAR 数据集上与大型神经网络准确性相匹配的结果,并在竞争性训练时间内消除了标准架构超参数搜索的需要。