这篇论文介绍了基于持续的深度强化学习的低轨卫星星座分散路由的完整解决方案,采用多智能体方法,其中每个卫星作为一个独立的决策制定智能体,通过从附近的智能体接收的反馈来获取环境的有限知识。
May, 2024
通过提出一种名为 CMADR 的新型约束多智能体强化学习动态路由算法,以高效地平衡目标改进与约束满足,该算法能有效减少数据包延迟最少 21% 和 15%,并满足严格的能量消耗和丢包率要求,优于多个基准算法。
Dec, 2023
本文提出了一种基于多智能体深度强化学习的新型组播路由方法,该方法应用于软件定义的无线网络环境中,灵活配置网络并获得网络状态信息。使用单跳动作策略和奖励函数解决多智能体合作下的多个子问题,并采用分散式训练方法相结合的迁移学习机制来加速收敛并提高吞吐量、延迟、丢包率等性能,模拟实验表明 MADRL-MR 方法可以建立更智能的组播路由。
May, 2023
该论文研究了使用强化学习的方法来优化低推力卫星的轨迹设计和自主控制。研究表明这种方法可以学习出几乎最优的引导定律,并且对环境动态的不确定性有很好的适应性。
Oct, 2022
我们提出了一个多智能体深度强化学习(MADRL)框架,用于训练低轨道卫星网络的下行多用户接入协议。通过改进现有学习的协议 eRACH,我们的方法 Ce2RACH 可以通过在 MADRL 训练过程中联合学习额外的信令消息来减轻卫星之间的干扰。仿真结果表明,与 eRACH 相比,Ce2RACH 的网络吞吐量提高了 36.65%,而信令消息的成本与用户数量呈线性增长。
Feb, 2024
本文论述了强化学习在 AI 驱动的 6G 网络中的作用,特别是目前热门的多智能体深度强化学习方法,以及其在移动边缘计算、无人机网络和大规模无线接入等方面的最新研究进展与应用前景。
Nov, 2020
本文采用深度强化学习(DRL)方法设计了一种基于软件定义网络(SDN)的智能组播路由算法 DRL-M4MR,该算法将最优组播路由问题视为多目标优化问题,通过构建组播树状态矩阵、链路带宽矩阵、链路延迟矩阵和链路丢包率矩阵作为 DRL 代理的状态空间,设计单步和最终奖励函数以指导智能构建最优组播树。实验结果表明,相比现有算法,DRL-M4MR 构建的组播树在训练后能够获得更好的带宽、延迟和丢包率性能,并且它能够在动态网络环境下做出更具智能的组播路由决策。
Jul, 2022
本研究主要探讨无线路由方案的优化,特别关注于集成接入回程(IAB)网络,旨在通过采取多智能体强化学习和马尔可夫决策过程等方法,最大化分组到达比率同时最小化网络延迟,并提升网络效率。在本研究中,我们提出了一种称为关系型优势演员评论家(Relational A2C)的算法,并对其进行了三种不同的训练范式。研究结果表明,相较于其他强化学习算法,该算法具有更好的性能和更低的个体自私行为,为 IAB 网络的路由策略优化提供了新的思路。
为了缓解城市交通拥堵问题并提高交通效率,本文提出了一种联合优化方法,使用多智能体深度强化学习(MADRL)来进行交通信号控制和车辆路由的信号化道路网络。通过建立代理之间的联系和共享观察和奖励,促进了代理之间的交互和合作,增强了个体训练。数值实验表明,我们的信号控制和车辆路由的集成方案在提高交通效率方面优于单独控制信号时间或车辆路线。
Oct, 2023
我们研究并开发了一种深度强化学习(DRL)方法,用于自适应流量路由,该方法利用深度图卷积神经网络(DGCNN)在 DRL 框架中学习流量行为,并通过 Q 值估计选择路由路径,实现对流量动态的快速适应。与 OSPF 协议相比,实验结果表明了该框架的有效性和适应性,在增加网络吞吐量高达 7.8% 和减少 16.1% 的流量延迟方面取得了显著效果。