有效的半监督异构参与者联邦学习
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非 IID 数据分布中实现了高性能。
Aug, 2023
通过提出的分离联合学习(IsoFed)方案,本文研究了在半监督联邦学习中有效训练具有带标签和无标签客户端的方法,并在四种不同模态的医学图像数据集上评估了模型性能,并在不同的实验设置下验证了所提出方法的有效性。
Oct, 2023
pFedKnow 是一个 SemiFL 框架,它通过神经网络剪枝技术生成轻量级的个性化客户端模型以降低通信成本,并将预训练的大型模型作为先验知识来指导个性化客户端模型的聚合,以进一步提高框架性能。
Mar, 2023
通过提出一种局部模型多样性增强策略,我们改进了非独立同分布(non-IID)数据下的一次性序列联邦学习,从而提高了全局模型的性能并保持低通信成本。
Apr, 2024
该研究提出了一种新的联邦学习框架,利用无标签的开放数据集和基于蒸馏的半监督学习算法,实现了模型的交流和性能的提高,并通过熵的减少平均值来减少模型之间的异质性。实验结果表明,相对于 FL 基准,DS-FL 能降低高达 99% 的通信成本,同时达到相似甚至更高的分类准确性。
Aug, 2020
在集群联邦多任务学习 (CFL) 中,针对多个用户间的非独立同分布 (non-IID) 数据的统计挑战,Clustered Federated Semi-Supervised Learning (CFSL) 应用于更真实的分层无线网络 (HWN) 场景,通过引入适用于生成准确伪标签的专门模型算法,显著改善了测试准确性、标注准确性和标注延迟等关键指标,以适应数据的非独立同分布性质和无线边缘网络的独特特点。
Jan, 2024
提出了 MiniBatch-SFL 算法,通过将模型在切割层处分为两部分,在减轻客户端设备的计算负载的同时解决了分布式学习中的客户端偏移问题。实验证明,相对于传统的 SFL 和 FL 方法,MiniBatch-SFL 在高度非独立同分布数据上的准确性提升分别可达 24.1% 和 17.1%。
Aug, 2023
使用分层分割联邦学习算法,结合边缘和云端阶段的模型聚合来降低计算和通信开销,实现提高隐私保护并优化移动边缘计算中的内容传递速度和移动服务质量。
Jan, 2024
本研究介绍一种名为 Split-fed learning (SFL) 的新颖算法,它将 Federated learning (FL) 和 Split learning (SL) 相结合,解决了它们各自固有的缺点,并增强了数据隐私和模型鲁棒性。SFL 具有比 SL 更短的计算时间,并具有与 SL 相似的测试准确性和通信效率,非常适用于资源受限的环境中。
Apr, 2020
本文提出了一种修改的联邦学习 (FL+HC) 方法,通过引入分层聚类步骤将客户端分为相似的集群,然后对这些集群进行独立并行的训练,实现在非独立同分布的数据环境下的模型训练,通过该方法可以使模型的性能、收敛速度、精度都有所提升。
Apr, 2020