MMFeb, 2024

通过在线学习更新理解 Adam 优化器:Adam 即 FTRL 的伪装

TL;DR本研究从在线学习的角度出发,对 Adam 优化器的算法组成进行了研究,通过研究 Adam 与 Follow-the-Regularized-Leader 在线学习框架的对应关系,揭示了其算法组成的益处。