Aug, 2023

SLoRA:联邦参数高效微调语言模型

TL;DR本研究通过探索在语言任务中不同联邦学习设置中应用参数高效微调(PEFT)方法的机会和挑战,提出了一种名为SLoRA的方法,通过一种新颖的数据驱动初始化技术来克服在高异构数据环境中LoRA的关键限制,实现与全面微调可比的性能,并以大约1%的密度实现显著稀疏更新,同时将训练时间减少高达90%。