MMJul, 2018

TFLMS:TensorFlow 中的图重写大模型支持

TL;DR本研究提出了一种解决深层神经网络在内存不足的情况下训练的方法,通过在计算图中插入 swap-out 和 swap-in 操作暂时将中间结果存储到 CPU 内存中,实现了较大规模深层神经网络的训练,并通过 TFLMS 模块发布到 TensorFlow 仓库,成功训练了 ResNet-50 和 3DUnet。