Sep, 2024
FedLF:联邦长尾学习中的自适应Logit调整与特征优化
FedLF: Adaptive Logit Adjustment and Feature Optimization in Federated
Long-Tailed Learning
TL;DR本研究旨在解决传统联邦学习方法未能有效应对全局长尾数据的类别偏差问题,从而导致模型在处理头类别时忽视尾类别。我们提出了一种新方法FedLF,通过自适应Logit调整、连续类中心优化和特征去相关来优化本地训练阶段,实验证明该方法能够有效缓解数据异构性和长尾分布导致的模型性能下降。