Apr, 2016

用亚线性内存成本训练深度神经网络

TL;DR提出一种系统性方法来减少深度神经网络训练的内存消耗,通过算法设计,在每个小批量仅需要一个额外正向传播的计算成本的情况下,以O(sqrt(n))的内存成本训练n层网络,使用计算图分析进行自动原地操作和内存共享优化,可以在更少的计算成本下实现更多的内存节约效果。