Jan, 2025
TinyML中的去中心化资源共享:无线双层闲聊并行SGD协作学习
Decentralised Resource Sharing in TinyML: Wireless Bilayer Gossip
Parallel SGD for Collaborative Learning
TL;DR本研究解决了在微控制器单元(MCU)上部署去中心化联邦学习(DFL)所面临的间歇性连接和网络拓扑动态等挑战。提出了一种名为双层闲聊去中心化并行随机梯度下降(GD PSGD)的新框架,通过分层通信结构与高效模型聚合方法来实现,在CIFAR-10数据集上验证了其与中心化联邦学习(CFL)相当的准确性,展示了其在资源受限环境中可扩展的学习潜力。