基于深度强化学习的智能 O-RAN URLLC 流量引导
本文介绍了 ns-O-RAN 软件框架,该框架整合了实际的生产级别的基于近实时 RAN 智能控制器 (near-RT RIC) 以及基于 ns-3 的 3GPP 模拟环境,以便开发 xApp 和自动化的大规模数据收集,并测试深度强化学习驱动的用户级优化控制策略。同时,作者提出了第一个面向用户的 O-RAN Traffic Steering (TS) 智能切换框架,将两种算法结合在一起,优化网络中的用户级别基站服务,使得传输速率和频谱效率平均提高了 50%。
Sep, 2022
本文探讨了 O-RAN 联盟提出的解聚的网络架构是否为 NextG 网络的关键要素,并在此框架下研究了数据驱动优化方法的潜力、挑战和局限性,以及实现自主和自优化网络愿景的深度强化学习智能体通过实时分析与控制的闭环集成的可行性。
Dec, 2020
提出了使用深度强化学习 (DRL) 算法的开放无线接入网络 (O-RAN) 切片的转移学习 (TL) 辅助方法,通过政策复用和蒸馏转移学习方法实现了快速收敛和改进泛化能力,显著提高了初始奖励值和收敛场景百分比,减少了奖励方差。
Sep, 2023
利用 O-RAN 的智能和灵活的网络控制,本研究介绍了一种基于开放和可重构网络的用例,以预测切换事件,并理解此类预测对所有依赖通信网络进行业务的利益相关者的价值。我们提出了一种基于长短期记忆机器学习方法,使用标准无线接入网络测量数据来预测切换事件。通过在真实网络数据上进行训练,我们的结果表明所提出的方法可以根据应用层目标进行优化,以提高精度或召回率。我们还将机器学习算法的性能与网络运营成本联系起来,结果表明相比长期资源购买,基于机器学习的资源匹配可以将运营成本降低 80% 以上。
Apr, 2024
该论文研究了如何利用机器学习算法实现开放式无线接入网络的智能化管控,提出了一种基于多智能体和多臂赌博机的负载平衡和资源分配策略,并通过仿真实验证明,该算法在有效提升网络吞吐率的同时,相对于基于规则的和其他启发式算法,更能实现开放接入单元之间的负载均衡。
Mar, 2023
这篇研究论文主要介绍了 O-RAN 作为 6G 无线研究和开发框架的限制,并提出了解决这些限制的技术措施,为 O-RAN 平台的能力扩展和 6G 无线发展提供了研发机会,其中关键特性包括端到端的安全,确定性延迟,物理层实时控制以及基于人工智能的 RAN 控制应用的测试。
Nov, 2021
本文提出并原型描述了一种基于 Open RAN 范例的新型编排框架 OrchestRAN,旨在通过自动计算最优数据驱动算法和其执行位置,实现网络智能控制和推理目标,以应对下一代软件化、开放式、分解式网络架构面临的挑战。在 Colosseum 平台上的实验结果表明,OrchestRAN 能够以最小的控制开销和延迟按需实例化数据驱动服务。
Jan, 2022
本文介绍了一种基于 O-RAN 模块和分布式代理合作,利用注意力机制的深度强化学习(ADRL)技术,以实现更好的网络性能,通过有效信息提取和实现泛化,提出了在分布式代理之间引入值 - 注意力网络来实现可靠和最优决策。模拟结果证明,与其他深度强化学习基线方法相比,该方法显著提高了网络性能。
Jun, 2023
我们提出了一种创新的方法,旨在协调 Open Radio Access Network(O-RAN)中的多个独立 xAPPs,以实现网络切片和资源分配,并优化用户设备(UE)之间的加权吞吐量和物理资源块(PRB)的分配。通过设计 power control xAPP 和 PRB allocation xAPP,我们的方法通过监督学习和无监督学习的组合实现了高效的网络切片问题解决方案。与其他方法相比,我们的方法在不同场景中展现出更高的性能和效果。
Jan, 2024
本文提出了基于深度强化学习和类似于 AlphaGo Zero 的神经蒙特卡罗树搜索的自我对抗自学习策略,以实现不同网络条件下的智能 RU-DU 资源分配,并研究了 ORAN 系统中 RU-DU 资源分配问题的 2D 装箱模型
Mar, 2021