DFML:分散式联邦互联学习
本文提出了一种新的联邦学习范例,名为联邦互助学习(FML),以处理三种不同类型的异质性,允许客户在共同设计通用模型的同时独立设计个性化并为不同场景和任务的个性化定制模型。
Jun, 2020
该论文提出了FedH2L方法,通过相互蒸馏和分散学习的方式来实现联邦学习中不同参与者拥有不同网络结构和数据分布的情况下训练一个强而全面的全局模型。
Jan, 2021
本文综述性地介绍了分散化联合学习的定义、方法、挑战、变体、技术和研究方向。通过在客户端之间建立直接通信的去中心化网络结构,分散化联合学习能够省略中心服务器,降低通信开销并实现较高的学习效率和隐私保护。
Jun, 2023
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模型并且在通信效率上更为优越。
Dec, 2023
我们提出了一种异步高效去中心化联邦学习框架,即AEDFL,它在异构环境中具有三个独特的贡献:首先,我们提出了一种异步的FL系统模型,并使用高效的模型聚合方法来改进FL的收敛性;其次,我们提出了一种动态过期感知的模型更新方法,以实现更高的准确性;第三,我们提出了一种自适应的稀疏训练方法,以降低通信和计算成本,同时准确性下降不显著。通过在四个公共数据集和四个模型上进行广泛的实验,证明了AEDFL在准确性(高达16.3%)、效率(高达92.9%)和计算成本(高达42.3%)方面的优势。
Dec, 2023
利用优化的无服务器工作流程,在FaaS环境下实现基于知识蒸馏的异构客户端模型的联邦学习(FL)系统,实验证明无服务器FedDF比无服务器FedMD更快、成本更低且对极端非独立同分布数据分布更加鲁棒。
Feb, 2024
通过引入时间驱动的异步聚合策略,以及使用区分性模型选择算法,提出了一种针对异构系统的同步联邦学习框架,该框架在提高系统效率和鲁棒性的同时,实现了对传统同步联邦学习的延迟减少50%和学习准确性平均提高3%的改进。
May, 2024
个性化联邦学习(PFL)在每个客户端寻找最优个性化模型,我们提出了一种分布式的个性化联邦学习(DPFL)框架,通过引入随机梯度推送和部分模型个性化,实现了线性分类器的个性化,达到了更好的收敛速度。
May, 2024
本研究解决了去中心化联邦学习中的统计异质性问题,提出了结合神经切线核(NTK)与模型平均的训练方法。该方法有效提高了模型准确率和收敛性,在高度异构的环境中相比于基线模型提高了至少10%的准确率,并显著减少了通信轮次,展现出良好的性能和鲁棒性。
Oct, 2024