Jan, 2024

LR-CNN:轻量级面向行的卷积神经网络训练以减少内存消耗

TL;DR我们通过重新组织操作,将传统的一层一层的数据流规则打破,设计了一种轻量级架构,能够在不影响准确性的情况下移除大部分中间数据,有效降低内存消耗。我们特别研究了两个连续行之间的较弱依赖关系,提出了两种解决方案,并通过评估验证了其有效性。我们还验证了我们的中间数据流优化可以顺利结合现有工作以获得更好的内存减少效果。