Apr, 2024

突破异构联邦学习的内存墙:逐步训练

TL;DR通过分割模型结构,分阶段训练并冻结模型的不同部分,逐步减小模型的尺寸以降低内存占用,从而提高性能。