Nov, 2024
资源受限设备高效联邦微调小型变压器
Efficient Federated Finetuning of Tiny Transformers with
Resource-Constrained Devices
TL;DR本研究解决了在联邦学习中微调大型语言模型时内存和计算资源效率低的问题。提出了一种新颖的层微调方案,使得跨设备的联邦学习能够在保持资源约束的同时利用预训练神经网络。研究结果表明,该方案在面对均匀或异构的计算和内存约束时,性能优于现有方法,并在有限通信条件下的准确度与LoRA相当,显著提升了联邦学习训练的准确性。