基于预测 GAN 的混合联邦分割学习多目标优化
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非 IID 数据分布中实现了高性能。
Aug, 2023
本文介绍了一种模型分区 / 切割的方法,将深度神经网络切分为两个部分,分别在设备和服务器上进行联合训练和联合推理,旨在通过交替优化解决划分点选择和带宽分配问题,以最小化系统的延迟
Oct, 2023
该论文在实际物联网设置中比较了联邦学习、分裂学习和分裂联邦学习的性能,并提出了一种广义分裂联邦学习模型来进一步优化在大规模 IoT 设备上的系统表现,同时还提出实用技巧来大幅减少通信开销。
Mar, 2021
由于资源约束场景的优势,分割联邦学习(SFL)在 AIoT 系统中具有潜力。为了解决数据异构性和滞后问题,本文提出了一种名为滑动分割联邦学习(S^2FL)的新型 SFL 方法,该方法采用自适应滑动模型拆分策略和基于数据平衡的训练机制。实验结果表明,与传统的 SFL 相比,S^2FL 的推断准确性提高了 16.5%,训练加速了 3.54 倍。
Nov, 2023
该论文提出了一个新的方法,通过使用生成对抗网络(GANs)的隐私保护属性来在用户设备上本地训练 ML 模型,并使用分割学习(SL)在设备之间共享计算负载,从而保护数据隐私且具有短训练时间和模型准确性。
Jul, 2022
分析了分布式机器学习中的深度分裂学习及其对通信链路中数据丢失的鲁棒性,验证了不同分裂点对最终模型准确性的统计显著差异,为分布式机器学习的发展提供了重要洞察。
Jul, 2023
边缘网络和移动计算的发展需要设计新的分布式机器学习机制来服务于异构数据源。本文提出了一种多任务分割学习(MTSL)框架,结合了分割学习(SL)的优点和分布式网络架构的灵活性,以实现高效处理异构数据源的多任务学习,具有快速收敛、低通信成本和对异质数据的鲁棒性等优势。
May, 2024
本文针对数据异构性与无线资源分配相结合的无线联邦学习问题,提出了性能分析与优化的方法,在考虑数据异构性的同时,优化客户端调度、资源分配和本地训练轮数,通过实验验证了该算法在学习准确性和能量消耗方面的优势。
Aug, 2023
通过在线知识蒸馏使用对比损失的新方法,保证了参与者在不共享其输入数据的情况下学习相似类别的相似特征,并将平均最后隐藏层激活的特征表示发布到中央服务器,然后客户端使用对比目标在其个人模型中蒸馏其知识,从而比独立学习和其他联邦知识蒸馏 (FD) 方案提高了模型的效用,本框架在多个数据集上使用不同的模型架构进行了性能基准测试。
Nov, 2022
我们提出了一种高效的分布式联合学习算法(ESFL),通过在服务器和终端设备之间将模型分割为不同的子模型,综合考虑用户异构性,同时优化用户端工作量和服务器端计算资源分配,以充分利用中央服务器的强大计算能力。与标准的联合学习、分割学习和分割联合学习相比,通过大量模拟实验证明我们的 ESFL 方法显著提高了效率。
Feb, 2024