Oct, 2024
NTK-DFL:通过神经切线核增强异构环境下的去中心化联邦学习
NTK-DFL: Enhancing Decentralized Federated Learning in Heterogeneous
Settings via Neural Tangent Kernel
TL;DR本研究解决了去中心化联邦学习中的统计异质性问题,提出了结合神经切线核(NTK)与模型平均的训练方法。该方法有效提高了模型准确率和收敛性,在高度异构的环境中相比于基线模型提高了至少10%的准确率,并显著减少了通信轮次,展现出良好的性能和鲁棒性。