CVPRNov, 2018

基于 Kronecker-Factored 近似曲率的大规模分布式二阶优化在深度卷积神经网络中的应用

TL;DR本文提出了使用次优化方法的替代方法,以解决深度神经网络的大规模分布式训练中可能出现的泛化差距问题,同时在基准测试中,我们的方法能够在更短的迭代次数内,就实现与一阶方法相当的泛化能力,并能够处理更大的 mini-batch。