May, 2025

随机变分传播:局部、可扩展和高效的替代反向传播方法

TL;DR本研究解决了反向传播在深度学习中的全球梯度同步限制与显著内存开销问题。我们提出的随机变分传播(SVP)通过将训练重构为分层变分推断,允许独立的本地更新,同时保持全局一致性,最终在各种架构和数据集上实现了与反向传播相媲美的精度,内存使用减少了多达四倍,显著提高了可扩展性。