ICMLJun, 2021

使用重量约束随机动力学进行更好的训练

TL;DR本研究介绍了一种通过引入定制化约束条件来减少神经网络权重梯度消失或爆发问题、提高分类边界的平滑性以及稳定深度神经网络,从而增强训练算法的稳健性和神经网络的泛化能力的方法。同时,还通过平衡重要性的 SG-MCMC 方法将这些约束条件有效地整合到一个随机梯度 Langevin 模型中,进一步探索损失函数的空间。值得注意的是,这些优化方式不需要适应神经网络体系结构设计选择或修改目标函数的正则化项,并且在分类任务中显示出较好的性能表现。