基于贝叶斯框架的深度强化学习在联合 O-RAN/MEC 协同管理中的应用
本文讨论了在移动网络中为实现计算任务的优化,如何通过最优计算分配策略,结合移动设备与 MEC 服务器的计算能力以及移动设备与基站之间的不同状态,达到最大化长期效益性能的效果,并利用 Q 函数分解技术与双深度 Q 网络相结合,实现了随机计算分配的学习算法。
May, 2018
本文提出了一种基于深度强化学习和马尔科夫决策过程的移动边缘计算系统中的任务卸载策略优化算法。实验结果表明,该算法相比基线策略有了显著的平均成本改善。
Mar, 2018
本文提出了一个基于区块链安全的深度强化学习优化框架,用于分散的无线移动边缘计算网络中的数据管理和资源分配。我们设计了一种低延迟的基于声誉的股权证明共识协议,用于选择高可靠的区块链启用的基站,以安全存储移动边缘计算用户请求并防止数据篡改攻击。我们将移动边缘计算资源分配优化建模为一个约束的马尔可夫决策过程,以平衡最小处理延迟和拒绝服务概率。我们使用移动边缘计算汇总特征作为深度强化学习的输入,显著减少了剩余服务处理时间的高维输入。我们的设计的约束深度强化学习有效地获得适应动态拒绝服务要求的最佳资源分配。我们提供了大量的仿真结果和分析来验证我们的区块链安全的深度强化学习框架比基准区块链共识协议和移动边缘计算资源分配算法更具有更高的安全性、可靠性和资源利用率。
Dec, 2023
通过多维资源的资源共享、服务缓存、深度强化学习等方面的联合优化,我们提出了一种协同多接入边缘计算(MEC)框架,旨在最大化长期的服务质量(QoS)并降低缓存切换成本。通过改进的遗传算法(GA)和基于长短期记忆网络的深度确定性策略梯度(LSTM-DDPG)组成的深度强化学习(DRL)的双时间尺度方案(DGL-DDPG),我们将优化问题转化为马尔可夫决策过程(MDP),以实现大时间尺度上的服务缓存决策。仿真结果表明,我们提出的算法在平均 QoS 和缓存切换成本方面优于基准算法。
Jul, 2023
本研究提出了一种使用强化学习解决最小化网络延迟和边缘服务器数量的问题的新 RL 框架,该问题涉及云计算、多接入边缘计算、组合优化问题和马尔可夫决策过程。
Feb, 2022
通过设计的多目标 (深度) 强化学习 (MORL) 资源调度方案,结合了近端策略优化 (PPO) 方法以解决多目标边缘计算系统下未知偏好的问题,本研究在能源消耗与传输延迟最小化的前提下,通过多边缘 MEC 系统中多目标离线问题进行建模与解决。
Jul, 2023
我们提出了一种优化资源利用的技术,实现联合计算卸载以减少总计算和通信开销,并构建一个绿色环境。与基准方案相比,我们的技术将总系统成本减少了 37.03%。
Jan, 2024
本文提出一种基于人工智能的协同计算方法,通过将任务分配和调度算法与决策流程相结合,实现车辆网络中任务的外包与协同计算,进而减少计算服务延迟,提高服务可靠性,并实现服务成本最小化。在复杂的城市交通网络中,基于提出的协同计算方法,仿真结果表明该方法适应高度动态环境且性能表现优异。
Oct, 2020