异构数据下的联邦神经网络压缩
本文介绍了一个集成了聚类式联邦学习和模型压缩优势的新型层次式联邦学习框架,包括自适应聚类算法和局部聚合压缩算法。仿真结果证实,我们提出的算法不仅保持了可比较的预测准确性,还显著降低了相对于现有联邦学习机制的能源消耗。
May, 2024
本文提出了一个新的联邦学习框架和算法,用于在客户之间学习共享的数据表示和每个客户的独特的本地头。我们的算法利用了跨客户的分布式计算能力,以便每次更新表示时进行许多针对低维本地参数的局部更新。我们证明该方法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。这个结果超出了联合学习,是一类希望在数据分布中学习共享的低维表示的问题的广泛兴趣,例如在元学习和多任务学习中。此外,广泛的实验结果显示了我们的方法在异构数据的联邦环境中相对于可选的个性化联邦学习方法的经验改进。
Feb, 2021
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
提出一种名为 FLIC 的通用框架,通过本地嵌入功能将客户端数据映射到公共特征空间,使用 Wasserstein barycenters 学习公共特征空间,通过分布对齐机制将本地嵌入函数集成到联邦学习中,并提供 FLIC 的算法,与涉及异构输入特征空间的 FL 基准进行性能比较,同时提供支持我们方法相关性的理论见解。
Jan, 2023
本研究提出了 Sparse Ternary Compression (STC),一种针对 Federated Learning 环境的新型压缩框架。实验表明,STC 在常见 Federated Learning 场景下,即使客户端持有非 iid 数据、使用小的 batch size 进行训练或参与率较低,也比 Federated Averaging 表现更佳。此外,即使客户端持有 iid 数据并使用中等大小的批次进行训练,STC 仍在更少的训练迭代和更小的通信预算内实现了固定目标准确度,表现超越了 Federated Averaging。
Mar, 2019
本文研究压缩技术对典型图像分类任务的联邦学习的影响,并证明了一种简单的方法可以在保持不到 1% 准确率损失的同时压缩 50% 的消息,与最先进的技术相媲美。
Oct, 2023
Federated Learning 的通信成本问题在该论文中通过动态权重聚类和服务器端知识蒸馏的组合方法 FedCompress 得到解决,从而实现了降低通信成本并获得高度可泛化模型的学习。
Jan, 2024
提出了一种名为 Heterogeneous Self-supervised Federated Learning(Hetero-SSFL)的统一框架,可以在异构客户端上进行协作表示学习,同时解决了系统异质性和标记数据匮乏等问题,并在非凸目标的异构性设置中提供了收敛保证,而且比现有方法表现更佳。
May, 2022