Oct, 2023

NetDistiller: 通过原地蒸馏强化微小深度学习

TL;DR通过将微小神经网络(TNNs)作为权重共享教师网络的子网络,利用梯度手术和不确定性感知蒸馏两种方法,我们提出了 NetDistiller 框架,以提高 TNNs 的可实现准确性,从而解决边缘设备的内存、计算、带宽和电源供应的限制问题。实验证实了 NetDistiller 在提升 TNNs 可实现准确性方面的有效性,胜过其他最先进的方法。