EMNLPFeb, 2022

重新审视参数高效调整:我们已经到达目标了吗?

TL;DR本文对参数节省调整方法(PETuning)的训练和评估进行了首次全面调查。研究发现当前 PETuning 研究中存在问题的验证和测试方法,以及 PETuning 方法的不稳定性,导致结论不可靠。当在真正公平的评估协议下进行比较时,PETuning 无法产生一致的竞争性表现,而在中高资源设置中细调仍然是表现最佳的方法。本文深入探讨了 PETuning 方法的不稳定性原因,观察到可训练参数数量和训练迭代次数是两个主要因素:减少可训练参数和延长训练迭代次数可能会导致 PETuning 方法的稳定性更高。