Jul, 2024

基于高效超网络的异构联邦学习

TL;DR提出了一种新的联邦学习框架HypeMeFed,通过将多出口网络架构与基于超网络的模型权重生成相结合,对客户的异构性进行支持;这种方法在异构模型层的特征空间中进行对齐,并解决了在权重聚合过程中的层间信息不一致问题。通过在真实异构设备测试平台上的评估,结果显示HypeMeFed相较于FedAvg方法提高了5.12%的准确度,减少了98.22%的超网络内存需求,并比简单的超网络方法加速了1.86倍。这些结果表明HypeMeFed在利用和吸引异构客户进行联邦学习方面的有效性。