本文讨论联邦学习的最新进展和挑战,并提出了一系列开放性问题和挑战。
Dec, 2019
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
本文提出了一种轻量级框架,使客户端通过融合多个预训练模型生成的表示而不是从头开始训练大规模模型来共同学习;我们设计了一种基于原型的对比学习(FedPCL)方法,以原型为共享信息进行知识传递,从而提高各个客户端利用现有模型的能力并保持通信效率。
Sep, 2022
本研究探讨了在缺乏训练样本标签的情况下,如何通过建立一种命名为 FFNLP 的系统,使用伪标注技术和提示学习技术的算法进化来实现联邦学习模型的训练,以优化移动设备自然语言处理 (NLP) 应用程序的性能。
Dec, 2022
去中心化联邦学习解决方案的综述,包括现有的方法和未来的研究方向。
Aug, 2023
联邦学习是一种机器学习范式,其中多个客户端通过利用私有数据来优化单一全局模型。本研究提出了一种基于高级特征进行一次聚类的客户端抽样策略,以在每一轮中实现分层的客户端抽样,以减少噪音并显著提高全局模型的收敛率,并显著减少了达到目标准确性所需的通信轮次。
Dec, 2023
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
本文提出了一种新的联邦学习范例,名为联邦互助学习(FML),以处理三种不同类型的异质性,允许客户在共同设计通用模型的同时独立设计个性化并为不同场景和任务的个性化定制模型。
Jun, 2020
该研究提出了一种名为 InclusiveFL 的客户端包含的联邦学习方法,解决异构设备下的全局模型训练问题,并通过在不同大小的本地模型之间共享知识和动量知识蒸馏方法来实现客户端之间的模型学习和知识迁移,实验表明该方法在联邦学习框架下从客户异构设备中学习准确模型方面具有很好的效果。
Feb, 2022