Dec, 2023

超越端到端训练:以上下文补充提升贪婪局部学习

TL;DR从信息论的角度出发,我们在贪婪的局部学习中提出了一种 ContSup 方案,它将隔离模块之间的上下文补充作为补偿信息损失的手段。在基准数据集(即 CIFAR、SVHN、STL-10)上的实验证明,我们提出的方法能够显著提高贪婪的局部学习性能,并且只带来最小的内存和计算开销,可以增加隔离模块的数量。