IJCAIAug, 2023

深度超参数化多任务学习中的紧凑神经网络学习

TL;DR紧凑型神经网络面向多任务学习的过参数化设计以提高优化和泛化性能,通过在训练过程中对模型架构进行过参数化,并更有效地共享过参数化的模型参数,以在小参数大小和低计算成本下获得与更复杂和强大架构相同或更好的模型性能。在两个具有挑战性的多任务数据集(NYUv2 和 COCO)上的实验证明了所提方法在各种卷积网络和参数大小下的有效性。