Mar, 2020

深度卷积神经网络从全局协方差池化中受益:优化视角

TL;DR本研究尝试从优化的角度研究了全局协方差池化在深度卷积神经网络上的作用机理,发现全局协方差池化可以使优化损失更加平滑,梯度更具预测性,从而提高网络的稳定性、鲁棒性和泛化能力。相关实验证实了以上结论以及全局协方差池化对快速训练、图像失真和扰动下的鲁棒性、不同任务的泛化等方面的优点。