关键词gradient descent optimizer
搜索结果 - 2
- ICLRAdamP:针对尺度不变权重下动量优化器的减缓减速方法
本文介绍了正则化技术在深度学习中的重要性,以及在使用冲量梯度下降优化器时可能出现的问题和解决方法。作者提出了 SGDP 和 AdamP 两种解决方案,通过去除每次优化步骤中的径向分量或增加规范的方向,来维护深度神经网络的性能,并验证了这些方 - ICML可扩展且泛化的学习优化器
通过引入层次循环神经网络优化算法和基于元学习的小任务集,实现了一个新的学习梯度下降优化器,解决了在更大的问题上扩展能力不足和泛化能力受限问题,并在 ImageNet 数据集上通过数千步为 Inception V3 和 ResNet V2 架