联邦互助学习
我们提出了一种无服务器的去中心化联邦互联模型学习(DFML)框架,通过相互学习和循环改变监督和蒸馏信号的量,有效处理模型和数据异构性,并在各种条件下,在收敛速度和全局准确性上优于流行基准。
Feb, 2024
联邦学习是一种机器学习方法,可以在持有本地数据样本的多个分散边缘设备之间进行协作模型训练,而无需交换这些样本。本报告探讨了非独立非同分布的数据与异构数据带来的问题,并探索了目前设计用于解决这些挑战的算法。
Jan, 2024
本研究提出一种新方法来解决联邦学习中的问题,并在本文所述的公开基准数据集(如 Femnist)以及自己收集的数据集(即流量分类)上验证了该方法的有效性,结果表明这种方法在极端情况下具有显著的优势。
Nov, 2020
本文提出了一种名为 MDH-FL 的方法,利用数据和模型的异质性,通过知识蒸馏和对称损失来提高联邦学习中全局模型的效率,实验证明该方法在医学数据集上比现有方法表现出更好的优越性。
Jul, 2023
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
本文探讨了通过元学习算法为联邦学习实现个性化的可能性。结果表明,联邦平均算法可以被解释为一种元学习算法,并且通过细致的微调,可以得到更准确、更易于个性化的全局模型。
Sep, 2019
该研究提出了一种针对非 IID 数据的个性化联邦学习方法,使用专家混合模型来学习相似的客户,即使在病理性非 IID 环境中,我们的方法仍然能够比本地模型获得高达 4.38%的精度优势。
Jun, 2022