Feb, 2024

多任务多语言模型自适应与特征化低秩混合

TL;DR针对多种多语言下游任务中,将预训练的大语言模型(LLM)进行调整以适应不同语言的计算成本过高的问题,本研究提出了一种参数高效的微调方法,即 Featurized Low-rank Mixtures(FLix),通过为每个数据集分配独立的低秩权重更新参数,实现了对多样的数据集混合的适应并对未见数据集表现更好。实验证明,FLix 在使用不同训练数据混合的有监督学习和零样本设置中,对多种任务都取得了显著的改进。