基于双深度 Q 学习的路径选择和服务部署方法,用于低延时敏感的 5G 以后应用
本文通过引入基于 RNN 的 DDQL 技术和基于 water-filling 算法的服务放置方法,解决了网络云集成环境中的服务放置和资源分配问题,从而实现在 B5G 中动态用户、超低延迟服务的放置以及用户迁移时的服务连续性的优化。
Sep, 2023
本文提出了一种基于深度学习的资源分配策略,通过优化带宽和传输功率来最小化基站的总功耗,并使用级联结构的神经网络和深度迁移学习来应对无线网络中的非平稳性。实验结果表明,相对于全连接神经网络,在 QoS 保证方面,级联神经网络的性能更好。
Mar, 2020
本文旨在研究一种利用强化学习算法在无线多业务系统中处理无线电资源分配问题的方法,通过在本地环境中与局部互动来寻找策略,实现了关于 9LTE 系统满足保证和 QoS 约束的无线资源分配。此外,通过计算模拟,本文与文献中的最新解决方案进行比较,并展示了后者在吞吐量和故障率方面近乎最优的性能。
Mar, 2020
通过多维资源的资源共享、服务缓存、深度强化学习等方面的联合优化,我们提出了一种协同多接入边缘计算(MEC)框架,旨在最大化长期的服务质量(QoS)并降低缓存切换成本。通过改进的遗传算法(GA)和基于长短期记忆网络的深度确定性策略梯度(LSTM-DDPG)组成的深度强化学习(DRL)的双时间尺度方案(DGL-DDPG),我们将优化问题转化为马尔可夫决策过程(MDP),以实现大时间尺度上的服务缓存决策。仿真结果表明,我们提出的算法在平均 QoS 和缓存切换成本方面优于基准算法。
Jul, 2023
采用深度强化学习方法,通过图神经网络模型实现网络资源的分配,该方法比现有的最佳启发式算法达到更高的接受率;即使在未适当训练的情况下,可以在规模比训练时大 $10^2$ 倍的数据中心网络中保持高性能。
Oct, 2022
基于容器虚拟化的云原生无线网络架构,应用深度强化学习算法来监控网络状态和动态分配资源,优化了网络分片和多接入边缘计算等场景的资源分配,大幅提高了网络效率。
May, 2023
我们将多时间尺度控制和通信 (MTCC) 问题分解为基于深度强化学习 (DRL) 的车队控制 (PC) 子问题和基于 DRL 的无线资源分配 (RRA) 子问题,并提出了用于学习最优 PC 策略的 MTCC-PC 算法和用于学习 RRA 策略的 MTCC-RRA 算法。我们采用奖励塑形和奖励反向传播优先经验回放 (RBPER) 技巧来高效地解决多智能体和稀疏奖励问题,并提出了一种样本和计算高效的训练方法来共同学习 PC 和 RRA 策略。通过使用真实驾驶数据进行实验,将 MTCC 的性能与基准 DRL 算法进行了比较,验证了所提出的 MTCC 算法的有效性。
Nov, 2023
本文研究了两个不同的 5G 服务,即 Ultra-Reliable Low Latency Communications(URLLC)和 enhanced Mobile BroadBand(eMBB)在动态多路复用场景下的资源切片问题。通过优化问题的形式化,提出了一种基于深度强化学习的资源分配算法,以最大化 eMBB 数据速率并满足 URLLC 可靠性约束,避免 URLLC 流量对 eMBB 可靠性造成的瞬时影响。模拟结果显示,该方法能够满足严格的 URLLC 可靠性要求,同时使 eMBB 的可靠性保持在 90%以上。
Mar, 2020
本文提出使用缓存算法和深度强化学习等技术,来解决铁路无线通信中,列车高速对信号传输产生的影响,从而提高服务体验质量和用户满意度。
Aug, 2022
通过考虑多节点计算资源的协作分配、传输资源块(RB)的分配以及系统的时变动态性,本文旨在通过联合考虑提出一种适用于合作 MEC 辅助的 RAN 切片系统中异构服务需求的最大 SSR 的方法。对系统进行抽象并使用循环图强化学习算法来智能地学习最佳混合 RA 策略,利用图神经网络(GCN)和深度确定性策略梯度(DDPG)有效地提取等效拓扑图的空间特征。此外,还设计了一种新的时间循环强化学习框架,将先前时刻策略网络的动作输出整合到后续时刻策略网络的状态输入中,以适应时变和上下文网络环境。此外,我们探讨了两种使用案例场景,以讨论所提出的 RGRL 算法的普遍优越性。仿真结果表明,所提出的算法在平均 SSR、性能稳定性和网络复杂性方面具有优势。
May, 2024