ECLM: 高效的边缘 - 云协作学习与持续环境适应
本文提出了一种名为 “Device-Cloud Collaborative Learning” 的框架,运用 “MetaPatch 学习” 及 “MoMoDistill” 算法实现了设备端和云端之间的合作学习,取得了较好的效果。
Apr, 2021
多模态大型语言模型的云设备协作持续适应框架,通过利用云端大规模语言模型的强大能力,提升了压缩的设备部署的语言模型的性能,并且在多项实验中展现了优于以往知识蒸馏和设备云协作方法的优越性。
Dec, 2023
基于 LAECIPS 的云边协作方法在 IoT 环境中通过大型云模型和轻量级边缘模型的协同推理实现了高准确性和低延迟,并适应了动态数据漂移的需求。
Apr, 2024
在深度学习、卷积神经网络和大型语言模型的时代,机器学习模型变得越来越复杂,需要大量的计算资源进行推理和训练。为了解决这个挑战,分布式学习已经成为一种关键方法,通过在各种设备和环境中进行并行化来实现。本调查研究对分布式学习的领域进行了探索,涵盖了云端和边缘设置。我们深入研究了数据和模型并行性的核心概念,研究了如何在不同维度和层次上对模型进行分割以优化资源利用和性能。我们分析了针对不同层类型的各种分割方案,包括全连接层、卷积层和循环层,突出了计算效率、通信开销和内存限制之间的权衡。这项调查研究通过比较和对比不同背景下的分布式学习方法,为未来的研究和发展提供了宝贵的见解。
May, 2024
我们提出了一种基于强化学习的计算卸载解决方案,它可以在考虑首选深度学习模型选择技术的情况下学习最佳卸载策略,以最小化响应时间同时提供足够的准确性,我们的解决方案在 AWS 和 ARM 核心配置的多个实现中提供 35%的加速,并且最少仅有 0.9%的准确性降低,展示了我们在线学习框架在边缘计算及联云系统中编配深度学习推理的潜力。
Feb, 2022
通过将轻量级机器学习模型部署到边缘设备上,实时分析本地数据流,如网络流量和系统日志,分发计算任务到边缘服务器提高响应性,提供更好的威胁检测和缓解措施,提高网络边缘的安全性。
May, 2024
本文提出了一个基于资源限制的多臂老虎机模型的在线学习框架,用于解决异构边缘设备的分布式机器学习问题,实验结果表明,该框架在学习性能和资源消耗之间的权衡方面显著优于现有的边缘学习和其他协作机器学习方法。
Apr, 2020
基于云边弹性模型适应(CEMA)范式,本文提出了一个在边缘设备上进行深度学习模型自适应的方法,通过前向传播和样本重放策略,更新和分发规范化层的仿射参数,以适应动态变化的环境,从而提高性能并减少通信负担。
Feb, 2024
MoCL-P 是一种轻量级的持续学习方法,通过任务表示引导模块组合和自适应修剪,同时解决避免灾难性遗忘、促进知识转移和保持参数效率等持续学习中的挑战,且在三个持续学习基准测试中达到了最优性能,提高了参数效率,展示了在资源受限的实际应用中的潜力。
Jun, 2024
本研究提出了一种名为 ECCT 的边缘云协作知识传递框架,可在边缘和云之间进行双向知识传输,共享特征嵌入和预测。实验表明,ECCT 在提高个性化,允许模型异构性,容忍异步训练和减轻通信负担等方面具有潜在的学术和行业用途。
Apr, 2023