移动边缘计算中的性能优化:基于深度强化学习的方法
本文讨论了在移动网络中为实现计算任务的优化,如何通过最优计算分配策略,结合移动设备与 MEC 服务器的计算能力以及移动设备与基站之间的不同状态,达到最大化长期效益性能的效果,并利用 Q 函数分解技术与双深度 Q 网络相结合,实现了随机计算分配的学习算法。
May, 2018
本文探讨了一种分散式的深度强化学习方法来优化移动边缘计算系统中的任务卸载策略,并分析了功耗和延迟之间的权衡关系。结果表明,该方法比传统的深度 Q 网络方法以及其他贪心策略能够更有效地降低资源消耗成本。
Dec, 2018
通过建模任务图离线计算为马尔可夫决策过程,并设计了一种深度强化学习算法(SATA-DRL)来提供用户体验,以适应环境变化。大量模拟验证表明,SATA-DRL 在减少平均完成时间和截止时间违规方面优于现有策略。
Sep, 2023
在移动边缘计算领域,通过有效的计算任务卸载可以确保用户无缝的体验质量。本研究以马尔科夫决策过程为基础,提出了一种基于深度强化学习的去中心化 QoS 导向的计算任务卸载算法,通过充分利用边缘节点的计算资源,能够显著提高用户的体验质量。
Nov, 2023
本文提出一种基于人工智能的协同计算方法,通过将任务分配和调度算法与决策流程相结合,实现车辆网络中任务的外包与协同计算,进而减少计算服务延迟,提高服务可靠性,并实现服务成本最小化。在复杂的城市交通网络中,基于提出的协同计算方法,仿真结果表明该方法适应高度动态环境且性能表现优异。
Oct, 2020
通过设计的多目标 (深度) 强化学习 (MORL) 资源调度方案,结合了近端策略优化 (PPO) 方法以解决多目标边缘计算系统下未知偏好的问题,本研究在能源消耗与传输延迟最小化的前提下,通过多边缘 MEC 系统中多目标离线问题进行建模与解决。
Jul, 2023
本文研究了移动边缘计算中的任务调度问题,采用马尔科夫决策过程方法解决该问题,并且提出了一种有效的一维搜索算法来找到最优的任务调度策略。仿真结果表明,与基线策略相比,该策略可以实现更短的平均执行延迟。
Apr, 2016
本论文提出了一种基于极值理论的移动边缘计算系统设计,用于满足极其可靠的低延迟要求和减少用户能量消耗,同时考虑无线通道动态和服务器资源负载。论文提供了两种时间尺度的解决方案,即长时间尺度下的用户 - 服务器关联和短时间尺度下的动态任务卸载和资源分配策略,并通过仿真实验验证了该方法的有效性。
Dec, 2018