Jun, 2021

Adam与训练策略如何帮助BNNs优化?

TL;DR研究二进制神经网络使用Adam优化相对于SGD优化的优势,发现Adam通过其自适应学习率策略更好地处理BNN的崎岖损失表面,并得到更好的优化结果。通过分析发现,Adam的二阶动量正则化效应对于使BNN中由于激活饱和而死亡的权重重振是至关重要的,并探究了实值权重在二进制网络中的有趣作用以及权重衰减对BNN优化的影响。最终,我们提出了一个基于Adam优化的简单训练方案,使用相同的架构比最先进的ReActNet实现了1.1%更高的top-1准确度(70.5%)。