TrimCaching: 无线边缘网络中的参数共享 AI 模型缓存
本文提出了一种基于位置定制的缓存方案,使用线性模型估计未来内容命中率,并以此为基础提出了求解最优缓存策略的不依赖于训练的在线算法,实现了自适应缓存决策并达到了与最优策略相当的命中率。
Sep, 2018
为了克服 6G 移动网络中多设备上同时下载不同和高维模型的通信瓶颈,我们提出了模型广播和装配(MBA)框架,通过参数广播减少通信开销和下载延迟,同时提供设备的模型性能保证。与传统模型下载相比,所提出的 MBA 框架在下载延迟方面取得了显著的减少。
Jul, 2023
本文提出一种基于多智能体框架的深度强化学习方法以最小化整体平均传输延迟,通过与三种不同的缓存策略对比,结果显示出该算法对于不同环境的能力更强,性能也更好。
May, 2019
研究雾计算网络中的边缘缓存,通过考虑有限的雾缓存容量和基站连接容量,提出了一个容量感知的边缘缓存框架,并通过允许雾节点和云数据中心的协作来将平均下载时间(ADT)最小化, 通过多类处理器排队过程将此问题建模,提出了一种基于 ADMM 的算法,可实现最小化 ADT 并比现有算法更快地收敛。模拟结果表明,根据网络状态需要平衡雾缓存容量和基站连接能力的分配。当基站连接容量足够时,利用所有可用的雾缓存容量最大化边缘缓存命中率(ECHR)是有帮助的,但当基站连接容量不足时,最好保持较低的 ECHR 并将更多流量分配给云。
Feb, 2020
在这篇文章中,我们提出了协作边缘训练这一新的训练机制,利用可信的边缘设备作为资源池来加速边缘的可持续大型人工智能模型训练,并分析了该系统的优点和可持续调度选择以及对能源需求的实证研究,同时讨论了可持续协作边缘训练面临的挑战和未来发展方向。
Apr, 2024
通过适用于边缘云资源的自适应压缩感知裂化学习方法,我们可以改善和训练深度学习模型,使其在网络上更加高效,并通过变换学习方法扩展训练,以换取更高效的推理能力,而不损失准确性。
Nov, 2023
本研究通过开发优化模型研究车载缓存方案,在最小化网络能耗的同时,优化缓存决策和网络能效。通过 2-D Markov 过程和在线缓存算法,本研究提出的在线缓存方案在能耗效率、命中率、缓存利用率和系统收益方面都优于现有方案。
Feb, 2019
这篇论文提出了一种基于强化学习的 AI 策略 SplitPlace,可以智能决策基于边缘计算的需求,采用分层或语义分割策略,对神经网络进行分割并将其部署在资源受限的移动边缘设备上,实现高效可扩展的计算。实验表明,SplitPlace 可以显著提高平均响应时间、截止日期违规率、推断准确度和总奖励达 46%,69%,3%和 12%。
May, 2022
本文探讨了网络中冗余数据传输的日益严峻挑战,提出了基于双深度强化学习缓存的解决方案,通过综合考虑文件的生命周期、大小和重要性等特征,实现了比最近的基于深度强化学习的方法更优异的性能,并引入了迁移学习以解决实际环境中缓存的动态挑战。
Feb, 2024
本文提出了一种在资源受限设备上部署和训练最先进模型的新解决方案,其中包括通过一种基于滤波修剪的模型压缩方法创造轻量级可训练模型,以及一种新型知识转移方法,允许在设备上的模型实时增量更新,并以无监督的方式通过云端模型学习新的类别。实验结果表明,该新方法可以在保持良好准确率的同时移除高达 99.36%的模型参数,并且允许在设备上的压缩模型在实时内收敛于增量学习任务并识别未见过的数据类别。
Jan, 2022