高效的针对 TinyML 的联邦元学习算法 TinyMetaFed
TinyReptile 是一种基于元学习和在线学习的有效算法,能够在资源受限的微型控制器之间协作性地学习神经网络的坚实初始化,并且相比具有类似性能的基准算法,能够至少将资源减少和训练时间节省两倍。
Apr, 2023
本文提出了一个联邦元学习框架 FedMeta,其中共享参数化算法而非全局模型以解决分布式移动设备网络中训练机器学习模型的统计和系统挑战,并在数据集上进行广泛实证研究,结果显示 FedMeta 相比于联邦平均 FedAvg 能够在 2.82-4.33 倍的通信成本和更快的收敛速度上取得 3.23%-14.84% 的准确性提升,并对用户隐私进行保护。
Feb, 2018
近年来微型机器学习(TinyML)的最新进展为低占用嵌入式设备提供了实时的设备端机器学习能力。然而,TinyML 的实际实施面临着独特的挑战。本研究旨在弥合原型设计的单一 TinyML 模型与开发可靠的生产级 TinyML 系统之间的差距: (1) 在动态变化的条件下,嵌入式设备的操作。现有的 TinyML 解决方案主要集中于推断,使用在强大的计算机上进行离线训练的模型,并部署为静态对象。然而,在实际环境中,由于输入数据分布的演变,静态模型可能性能不佳。我们提出在线学习以实现在受限设备上的训练,并使本地模型适应最新的现场条件。(2) 然而,当前的设备端学习方法在部署条件异构和标注数据缺乏的情况下遇到困难,特别是在多设备上应用。 我们引入联邦元学习将在线学习结合在一起,以增强模型的泛化能力,促进快速学习。本方法通过知识共享确保分布式设备之间的最佳性能。(3) 此外,TinyML 的重要优势是被广泛采用。嵌入式设备和 TinyML 模型优先考虑高效率,导致资源的多样性,从内存和传感器到模型架构都具有多样性和非标准化的表示,因此在扩展 TinyML 系统时管理这些资源变得具有挑战性。 我们提出语义管理以进行模型和设备的联合管理。我们通过一个基本的回归示例演示了我们的方法,然后在三个真实的 TinyML 应用中进行评估:手写字符图像分类,关键词音频分类和智能建筑出席检测,验证了我们方法的有效性。
May, 2024
本文提出了一种名为 MetaFed 的新型框架,通过循环知识蒸馏为每个联邦获得个性化模型,以促进不同联邦间值得信赖的联邦学习,该方法提高了精度并降低了通信成本。
Jun, 2022
提出了一种基于联邦元学习的平台辅助协作学习框架,用于解决物联网边缘节点受限计算资源和数据局限性的问题,并实现了针对边缘目标节点的快速任务适应。此外,还提出了基于分布式鲁棒优化的鲁棒性联邦元学习算法,并在数据集上展示了其有效性。
Jan, 2020
提出了一种将联邦学习与元学习技术相结合的新框架,通过学习数据批次的上下文信息并使用该知识生成调制参数来动态调整基础模型的激活,从而实现了联邦学习的效率和泛化能力的提高。实验结果表明,与现有的联邦学习方法相比,这种方法在收敛速度和模型性能方面都有所提高,突出了将上下文信息和元学习技术融入联邦学习的潜力,为分布式机器学习范式的进步铺平了道路。
Dec, 2023
本文研究了联邦学习的个性化变种,在 Model-Agnostic Meta-Learning 框架下,通过个性化 Federated Averaging 算法,根据不同用户数据的分布差异,探讨其性能的影响。
Feb, 2020
本论文提出了一种弹性约束方法,通过使用历史本地调整模型来限制内循环的方向,以改善联邦学习中元学习的不稳定性以及对于客户端的个性化更新,它通过适应本地数据分布,共同训练出效果更好的模型,此方法在三个公共数据集上取得了最佳效果。
Jun, 2023
本文提出一种名为 FedTiny 的分布式修剪框架,通过自适应批量归一化选择模块和轻量级渐进修剪模块,可在有限的计算和存储资源上定制化地修剪神经网络模型,以适应分布式和机密数据的联合学习。实验结果表明,FedTiny 在压缩深度模型的情况下表现出色,并在各项指标上超越了现有基线方法。
Dec, 2022