Sep, 2024

更少的内存意味着更小的GPU:压缩激活的反向传播

TL;DR本研究针对深度神经网络(DNN)在训练中内存需求不断增长的问题,提出了一种通过池化压缩激活图的方法,以减少反向传播中的内存占用和数据移动。研究表明,虽然训练时间有所增加,但这种新方法能够将峰值内存消耗降低29%,同时保持预测准确性,展现了其在现代深度学习中的潜在影响。