Oct, 2022

通过层间内核共享大幅减少深度卷积神经网络中可训练参数数量

TL;DR提出在深度卷积神经网络中通过共享卷积层核来减少可训练参数数量和内存占用的方法,既能够缓解边缘计算内存限制,又能有效地防止过拟合。实验证明该方法能够在保持精度的情况下大幅减少模型大小。