Dec, 2023

关于正则化 NTK 动态的一点说明及其在 PAC-Bayesian 训练中的应用

TL;DR建立了神经网络的显式动力学,其中训练目标包含了对参数保持接近初始值的限制,从而使网络保持在惰性训练状态,从而可以在线性化初始状态下的动力学。标准的神经切线核(NTK)控制训练期间的演变,尽管正则化会在描述动力学的微分方程中产生额外的项。该设置为研究广泛网络优化泛化目标(如 PAC-Bayes 界限)的演变提供了一个适当的框架,从而有可能对这类网络的理论理解做出更深入的贡献。