Feb, 2023

SubTuning: 多任务学习的高效微调

TL;DR本研究探讨了一种新的用于 fine-tuning 神经网络的方法,称为子集 fine-tuning,即只对部分层进行精细调整并锁定其余权重,该方法可以在不增加计算成本的情况下实现多任务的学习和推理,并在数据稀缺的情况下实现与完全 fine-tuning 模型相当甚至更好的性能。