May, 2023

深度神经网络内存高效训练的流形正则化

TL;DR本文提出了一种利用归纳偏置驱动的网络设计原则和基于层的流形正则化目标来实现神经网络学习过程中提高内存效率的框架,该框架的使用结果相对于传统学习技术具有更好的绝对性能和实证一般化误差,可以无缝地与现有的网络压缩方法相结合。