Dec, 2023

通过相关动力模型增强神经网络训练

TL;DR神经网络训练过程中的参数在时间上呈现内在关联性,使用相关模式分解(CMD)算法可以将参数空间有效地划分为展现跨周期同步行为的群组,从而仅使用少数模式即可有效地表示 ResNets 和 Transformers 等复杂网络的训练动态,并提升测试集泛化能力。CMD 能够增强训练效率和降低通信开销,进一步的实验表明 CMD 在图像分类中紧凑模型动态建模方面超过现有方法,尤其在联邦学习背景下有显著优势。