BriefGPT.xyz
Apr, 2016
用亚线性内存成本训练深度神经网络
Training Deep Nets with Sublinear Memory Cost
HTML
PDF
Tianqi Chen, Bing Xu, Chiyuan Zhang, Carlos Guestrin
TL;DR
提出一种系统性方法来减少深度神经网络训练的内存消耗,通过算法设计,在每个小批量仅需要一个额外正向传播的计算成本的情况下,以O(sqrt(n))的内存成本训练n层网络,使用计算图分析进行自动原地操作和内存共享优化,可以在更少的计算成本下实现更多的内存节约效果。
Abstract
We propose a systematic approach to reduce the
memory consumption
of
deep neural network
training. Specifically, we design an
algorithm
th
→