Oct, 2024
FedGTST:通过统计调优提升联邦模型的全球可迁移性
FedGTST: Boosting Global Transferability of Federated Models via
Statistics Tuning
TL;DR本研究针对现有联邦学习方法在全球学习领域的可迁移性不足的问题,提出了改进方案。通过引入客户端-服务器交换协议及增加客户端间Jacobian规范的平均值,旨在降低跨客户端Jacobian方差,从而更好地控制目标损失。实验结果表明,该方法在多个数据集上相比于现有基线显著提升了准确率。