预测对 O-RAN 切片中 DRL 技术收敛的影响是如何的?
提出了使用深度强化学习 (DRL) 算法的开放无线接入网络 (O-RAN) 切片的转移学习 (TL) 辅助方法,通过政策复用和蒸馏转移学习方法实现了快速收敛和改进泛化能力,显著提高了初始奖励值和收敛场景百分比,减少了奖励方差。
Sep, 2023
通过使用分布式深度强化学习和基于长短期记忆的预测方法,本文介绍了一种利用分布式单元在开放式无线接入网络系统中进行网络切片 xApp 的新方法,并展示了显著提高网络性能、特别是减少服务质量违规的模拟结果。
Jan, 2024
本文介绍了一种基于 O-RAN 模块和分布式代理合作,利用注意力机制的深度强化学习(ADRL)技术,以实现更好的网络性能,通过有效信息提取和实现泛化,提出了在分布式代理之间引入值 - 注意力网络来实现可靠和最优决策。模拟结果证明,与其他深度强化学习基线方法相比,该方法显著提高了网络性能。
Jun, 2023
本文介绍了一种新的管理网络切片的框架,该框架使用了基于演化的深度强化学习 (EDRL) 方法,将 O-RAN 切片表示为马尔可夫决策过程 (MDP),并通过对资源分配的最优解来满足服务需求,模拟结果表明,所提出的方法比 DRL 基线提高了 62.2% 的服务质量。
Aug, 2022
本研究提出了一种基于深度强化学习的网络分片动态资源分配问题解决方案,模拟数据和真实负载驱动跟踪的模型评估表明,相比于基准均等分片策略,我们的解决方案提高了总资源利用率,降低了时延性能,并满足了更多的需求。
Aug, 2019
该研究介绍了离线强化学习(RL)在解决无线网络中的无线电资源管理(RRM)问题方面的应用,展示了它学习接近最优策略的能力,适应不同的服务级别要求,并在各种 RAN 分割场景中发挥潜力。
Dec, 2023
网络切片通信系统通过动态和高效地分配资源来满足各种服务的需求。本文提出了一种由数字孪生和强化学习代理构成的框架来处理资源分配的问题,并验证了该框架的可扩展性,展示了数字孪生对切片优化策略性能的显著改进。
Nov, 2023
该研究提出基于机器学习的交通引导方案以预测网络拥塞并在避免其的基础上通过优化设置来服务具备低延迟和高可靠性需求的 URLLC 应用。在 O-RAN 中,比传统反应式交通引导方法平均减少 15.81%的排队延迟。
Mar, 2023
本研究探讨了深度强化学习在网络切片资源管理中的应用,并通过广泛的模拟比较实现了无线电资源切片和基于优先级的核心网络切片等场景中深度强化学习的优势。同时,从一个更广泛的视角讨论了在网络切片中应用深度强化学习可能面临的挑战。
May, 2018
本文介绍了使用基于回归的模型来学习 QoS 和资源分配之间的关系,并利用基于风险的强化学习代理进行动态缩放截片资源以维持所需的 QoS 水平和最大限度地提高资源效率的方法。我们的新方法不需要将 QoS 度量数学地公式化为流量,可以减少网络建模误差的影响,并具有针对不确定网络条件,定向于各种 QoS 度量的鲁棒性,同时具有在不同实际流量模式下推广的性质。结果表明,该方法能够在先前未见的流量上将 QoS 降级保持在预设的 10%以下,同时最小化分配的资源,并展示了拟议方法对不同的网络条件和不准确的流量预测的鲁棒性
Jun, 2023