超密集网络的负载均衡:基于深度强化学习的方法
本文研究了基于深度强化学习的无模型无需解析解的动力控制方案在跨单元合作、离线 / 在线集中训练和分布式执行等方面的数学分析和具体实现。 分析和仿真结果表明,DRL 设计在性能、鲁棒性和广泛可用性方面优于基于模型的方法,特别是 actor-critic 深度确定性策略梯度算法,可用于现有资源分配方案。
Jan, 2019
我们提出了一种安全的基于深度强化学习和控制障碍函数的负载均衡算法,能在训练和测试过程中将不安全的操作转化为可行的操作,引导学习朝着安全策略的方向,并在 GPU 上实现了该解决方案,实现了模型更新和培训的加速,同时在满足链路容量限制的安全要求下交付接近最优的服务质量性能。
Jan, 2024
本文利用多智能体强化学习框架,研究了数据中心(DCs)中多个负载均衡器(LBs)的网络负载均衡问题。将多智能体负载均衡问题表示为马尔科夫潜在博弈,并提出了一种全分布式的 MARL 算法,通过仿真实验证明了该算法的优越性。
Jun, 2022
本研究提出并分析了一种基于联邦深度 Q 学习的负载均衡系统,该系统使用 Open-RAN xAPP 框架和近实时无线接口控制器 (near-RT RIC) 进行实现。模拟结果表明,与当前由用户设备使用的最大信噪比 (MAX-SINR) 方法相比,我们提出的深度 Q 学习模型能够持续提供更好的用户设备服务质量。
Feb, 2024
本文研究了基于模型驱动的电力分配算法在具有干扰多接入信道(IMAC)的无线蜂窝网络中的应用。通过深度强化学习(DRL)的两步训练框架,采用深度 Q 网络(DQN)和深度 Q 学习算法(DQL)从离线学习中获得指定数据集,而对于在线学习过程中的真实数据来说,DQN 可进一步微调。这种方法比现有的 DQL 训练方法更好,具有很好的推广能力。
Dec, 2018
我们研究了在一个拥有大量设备和一组边缘服务器的稠密网络中的分散任务卸载和负载平衡问题。通过将均值场多智能体多臂赌博(MAB)游戏与一种负载平衡技术相结合,调整服务器的奖励以实现目标人口分布,解决了由于未知网络信息和随机任务大小而导致的复杂优化问题。数值结果证明了我们方法的有效性和对目标负载分布的收敛。
Jun, 2024
通过提出一种名为 NOMA-PPO 的新型深度强化学习调度算法,本文解决了无线网络中超可靠低延迟通信(URLLC)的问题,也就是在物联网(IoT)应用中施加的严格约束。该方法通过将 NOMA-URLLC 问题转化为部分可观察马尔可夫决策过程(POMDP)并引入一种代理状态,成功将 POMDP 转化为马尔可夫决策过程(MDP),并且适应了组合动作空间,同时还利用贝叶斯策略技术融合了先前的知识,结果表明该方法不仅在 3GPP 场景中优于传统的多路访问协议和 DRL 基准,而且在各种信道和流量配置下都能有效地利用时间相关性,显示出鲁棒的性能。
Aug, 2023
本文使用深度强化学习的方法解决边缘计算中垂直缩放的问题,为车联网通信提供支持,实验表明,与现有解决方案相比,该方法可以降低至少 23% 的 CPU 使用率,同时增加 24% 的长期收益。
Jan, 2023
本文论述了强化学习在 AI 驱动的 6G 网络中的作用,特别是目前热门的多智能体深度强化学习方法,以及其在移动边缘计算、无人机网络和大规模无线接入等方面的最新研究进展与应用前景。
Nov, 2020
该论文研究了如何利用机器学习算法实现开放式无线接入网络的智能化管控,提出了一种基于多智能体和多臂赌博机的负载平衡和资源分配策略,并通过仿真实验证明,该算法在有效提升网络吞吐率的同时,相对于基于规则的和其他启发式算法,更能实现开放接入单元之间的负载均衡。
Mar, 2023