Nov, 2022

FedTune:使用预训练 Transformer 进行高效联邦微调的深入探究

TL;DR本文研究了如何有效地在联邦学习中使用预训练 Transformer 模型及其微调方法,实验结果表明,微调模型的偏置项是最好的策略,并且使用视觉 - 语言模型会比纯视觉模型的性能更好,且能提高模型精度并减少过拟合问题。