强化学习增强的移动边缘计算用于 6G 边缘智能
移动边缘计算(MEC)通过将计算和存储范围扩展到靠近终端设备的边缘节点,实现了大规模 “连接的物联网” 在边缘网络中的部署。这篇论文全面调研了在 MEC 网络中应用强化学习(RL)的各种应用,包括离线、缓存和通信等方面,提出了特定的 RL 技术来解决相关问题并提供了实际应用的见解。
Apr, 2024
本文提出了一种基于深度强化学习和马尔科夫决策过程的移动边缘计算系统中的任务卸载策略优化算法。实验结果表明,该算法相比基线策略有了显著的平均成本改善。
Mar, 2018
本研究提出了一种使用强化学习解决最小化网络延迟和边缘服务器数量的问题的新 RL 框架,该问题涉及云计算、多接入边缘计算、组合优化问题和马尔可夫决策过程。
Feb, 2022
本文提出一种基于人工智能的协同计算方法,通过将任务分配和调度算法与决策流程相结合,实现车辆网络中任务的外包与协同计算,进而减少计算服务延迟,提高服务可靠性,并实现服务成本最小化。在复杂的城市交通网络中,基于提出的协同计算方法,仿真结果表明该方法适应高度动态环境且性能表现优异。
Oct, 2020
通过设计的多目标 (深度) 强化学习 (MORL) 资源调度方案,结合了近端策略优化 (PPO) 方法以解决多目标边缘计算系统下未知偏好的问题,本研究在能源消耗与传输延迟最小化的前提下,通过多边缘 MEC 系统中多目标离线问题进行建模与解决。
Jul, 2023
本文讨论了在移动网络中为实现计算任务的优化,如何通过最优计算分配策略,结合移动设备与 MEC 服务器的计算能力以及移动设备与基站之间的不同状态,达到最大化长期效益性能的效果,并利用 Q 函数分解技术与双深度 Q 网络相结合,实现了随机计算分配的学习算法。
May, 2018
本文探讨了一种分散式的深度强化学习方法来优化移动边缘计算系统中的任务卸载策略,并分析了功耗和延迟之间的权衡关系。结果表明,该方法比传统的深度 Q 网络方法以及其他贪心策略能够更有效地降低资源消耗成本。
Dec, 2018
通过建模任务图离线计算为马尔可夫决策过程,并设计了一种深度强化学习算法(SATA-DRL)来提供用户体验,以适应环境变化。大量模拟验证表明,SATA-DRL 在减少平均完成时间和截止时间违规方面优于现有策略。
Sep, 2023
近年来,移动应用程序的爆发性增长引起了人们的关注,但用户设备在处理计算需求方面存在局限性。移动边缘计算作为应对用户设备不断增长的计算需求的一项有前途的技术,通过在用户设备和移动边缘计算服务器之间分配任务来满足用户设备的需求。深度强化学习在任务卸载问题中受到关注,因为它能够适应动态变化并减少在线计算复杂性。然而,用户设备和移动边缘计算服务器上的各种连续和离散资源约束给有效基于深度强化学习的任务卸载策略的设计带来了挑战。我们提出了一种新颖的组合客户端 - 主控深度强化学习算法(CCM_MADRL_MEC),用于移动边缘计算中的任务卸载,使得用户设备能够决定其资源需求,并使服务器基于用户设备的需求做出组合决策。CCM_MADRL_MEC 是任务卸载中首个考虑服务器存储容量以及用户设备约束的多智能体深度强化学习算法。通过利用组合动作选择,CCM_MADRL_MEC 相对于现有的多智能体深度确定性策略梯度算法和启发式算法具有更好的收敛性。
Feb, 2024