基于集群的资源感知拆分联邦学习用于连续认证
该论文在实际物联网设置中比较了联邦学习、分裂学习和分裂联邦学习的性能,并提出了一种广义分裂联邦学习模型来进一步优化在大规模 IoT 设备上的系统表现,同时还提出实用技巧来大幅减少通信开销。
Mar, 2021
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非 IID 数据分布中实现了高性能。
Aug, 2023
通过模型分割和客户端模型聚合,我们提出了一种适应资源受限边缘计算系统的新型资源自适应分割联邦学习(AdaptSFL)框架,以加速分割联邦学习并实现更好的训练性能。
Mar, 2024
我们提出了一种高效的分布式联合学习算法(ESFL),通过在服务器和终端设备之间将模型分割为不同的子模型,综合考虑用户异构性,同时优化用户端工作量和服务器端计算资源分配,以充分利用中央服务器的强大计算能力。与标准的联合学习、分割学习和分割联合学习相比,通过大量模拟实验证明我们的 ESFL 方法显著提高了效率。
Feb, 2024
在资源受限环境中,通过介绍聚类正则化和全局更新频率适应的控制算法,我们提出了一种新的训练模型系统,用于解决联合学习中的数据非独立同分布和模型收敛性问题,该系统在减少训练时间和通信成本的同时提高了准确性。
Jul, 2023
在分布式协作机器学习领域中,我们提出了一种名为 SFPL 的框架,通过在设备之间分布处理数据并利用正标记数据,使得资源受限的物联网设备在训练深度学习模型时能够达到比现有方法更好的结果。
Jul, 2023
提出了一种叫做联邦学习的分散式学习结构,该结构可以在物联网设备中实现机器学习,通过处理来自不同客户端的数据,以预测未来事件。此方法可解决传统机器学习中遇到的通信开销、隐私泄露和安全性等问题,同时也避免了中央服务器的使用。本文讨论了在客户端资源有限的情况下实施联邦学习的挑战和应用。
Feb, 2020
本研究介绍一种名为 Split-fed learning (SFL) 的新颖算法,它将 Federated learning (FL) 和 Split learning (SL) 相结合,解决了它们各自固有的缺点,并增强了数据隐私和模型鲁棒性。SFL 具有比 SL 更短的计算时间,并具有与 SL 相似的测试准确性和通信效率,非常适用于资源受限的环境中。
Apr, 2020
本文首次对 SplitFed 的强韧性进行了实证分析,结果表明 SplitFed 在面对模型毒化攻击时降低精度的程度是 Federated Learning 的 1/5,这是由于 SplitFed 具有较小的维度和更高的抗攻击能力。
Dec, 2022