使用交叉通道池化的量子分裂神经网络学习
本文介绍了一种模型分区 / 切割的方法,将深度神经网络切分为两个部分,分别在设备和服务器上进行联合训练和联合推理,旨在通过交替优化解决划分点选择和带宽分配问题,以最小化系统的延迟
Oct, 2023
分析了分布式机器学习中的深度分裂学习及其对通信链路中数据丢失的鲁棒性,验证了不同分裂点对最终模型准确性的统计显著差异,为分布式机器学习的发展提供了重要洞察。
Jul, 2023
本文提出了一种混合联邦分裂学习框架来利用联邦学习与分裂学习的优势,在无线网络中将多工器并行更新和灵活的分裂相结合,并采用预测生成对抗网络算法对多目标优化进行求解。实验结果表明,该算法在找到帕累托最优解方面优于其他算法,并且所提出的 HFSL 的解支配 FL 的解。
Sep, 2022
由于资源约束场景的优势,分割联邦学习(SFL)在 AIoT 系统中具有潜力。为了解决数据异构性和滞后问题,本文提出了一种名为滑动分割联邦学习(S^2FL)的新型 SFL 方法,该方法采用自适应滑动模型拆分策略和基于数据平衡的训练机制。实验结果表明,与传统的 SFL 相比,S^2FL 的推断准确性提高了 16.5%,训练加速了 3.54 倍。
Nov, 2023
本研究介绍一种名为 Split-fed learning (SFL) 的新颖算法,它将 Federated learning (FL) 和 Split learning (SL) 相结合,解决了它们各自固有的缺点,并增强了数据隐私和模型鲁棒性。SFL 具有比 SL 更短的计算时间,并具有与 SL 相似的测试准确性和通信效率,非常适用于资源受限的环境中。
Apr, 2020
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非 IID 数据分布中实现了高性能。
Aug, 2023
边缘网络和移动计算的发展需要设计新的分布式机器学习机制来服务于异构数据源。本文提出了一种多任务分割学习(MTSL)框架,结合了分割学习(SL)的优点和分布式网络架构的灵活性,以实现高效处理异构数据源的多任务学习,具有快速收敛、低通信成本和对异质数据的鲁棒性等优势。
May, 2024
该论文在实际物联网设置中比较了联邦学习、分裂学习和分裂联邦学习的性能,并提出了一种广义分裂联邦学习模型来进一步优化在大规模 IoT 设备上的系统表现,同时还提出实用技巧来大幅减少通信开销。
Mar, 2021
本研究首次尝试在实际物联网环境中评估和比较联邦学习(FL)和分裂神经网络(SplitNN)的学习性能和设备实现开销,并考虑了各种数据集、模型结构、多个客户端和各种性能指标。通过实证评估 FL 和 SplitNN 在不同类型的数据分布下的学习性能,我们发现在不平衡数据分布下 SplitNN 的学习性能优于 FL,但在极端非独立同分布(非 IID)数据分布下 SplitNN 的学习性能劣于 FL。同时,在 Raspberry Pis 上综合评估了 FL 和 SplitNN 的实现开销,包括训练时间、通信开销、功耗和内存使用等方面。我们的研究结果表明,在物联网场景中,由于通信流量是主要关注的问题,FL 表现比 SplitNN 更好,因为 FL 相对于 SplitNN 具有显著更低的通信开销。此外,我们揭示了 SplitNN 的一些未被认识到的局限性,为未来的研究奠定了基础。
Mar, 2020