Feb, 2020
Taylorized 训练:有限宽度神经网络训练更好的逼近
Taylorized Training: Towards Better Approximation of Neural Network Training at Finite Width
Yu Bai, Ben Krause, Huan Wang, Caiming Xiong, Richard Socher
TL;DR提出 “Taylorized training” 这一方式以更好地理解有限宽度下神经网络训练的特点,该方法包括在初始状态下培训神经网络的 k 阶泰勒展开,并是线性化训练的有原则的扩展,并通过在现代神经网络结构上尝试 Taylorized training 表明它可以显著缩小线性化和完全训练之间的性能差距,并证明在宽神经网络中,k 阶 Taylorized 模型的逼近误差在 k 中呈指数衰减。