Jun, 2024

深度学习模型训练中的能量成本最小化:高斯采样方法

TL;DR基于模型的过参数化性质和损失函数的平滑性,我们提出了一种名为 “GradSamp” 的方法,通过从高斯分布中采样梯度更新,以高效计算深度学习模型的梯度,从而减少反向传播过程中的能量开销。我们的实验结果验证了 “GradSamp” 在不损失性能的情况下,显著提高了能量效率,并表明其在实际深度学习应用中的多样性和潜在影响。