ACLApr, 2024

Q-Tuning: 基于队列的逐步微调方法用于终身少样本语言学习

TL;DR本研究提出了一种名为 Q-tuning 的新方法,用于持续的提示调优,从而实现了预训练语言模型的终身学习。通过将新任务的提示添加到由旧任务的提示组成的提示队列中,Q-tuning 训练了一个特定于任务的提示。为了更好地传递旧任务的知识,我们设计了一种自适应的知识聚合技术,通过可学习的低秩矩阵重新加权队列中的先前提示。当提示队列达到最大容量时,我们利用基于 PCA 的驱逐规则来减小队列的大小,从而在保留旧任务的主要知识的同时添加新训练的提示。为了减轻由于驱逐而导致的信息丢失的积累,我们额外提出了一个全局共享的前缀提示和基于信息理论的内存保留正则化。广泛的实验证明,我们的方法在持续提示调优基准上显著优于最先进的方法。此外,我们的方法实现了在线性增长任务序列的终身学习,并且在训练和推断中保持恒定复杂度。