一个用于多小区网络下行功率分配的深度 Q 学习方法
本文研究了基于深度强化学习的无模型无需解析解的动力控制方案在跨单元合作、离线 / 在线集中训练和分布式执行等方面的数学分析和具体实现。 分析和仿真结果表明,DRL 设计在性能、鲁棒性和广泛可用性方面优于基于模型的方法,特别是 actor-critic 深度确定性策略梯度算法,可用于现有资源分配方案。
Jan, 2019
本文研究了基于模型驱动的电力分配算法在具有干扰多接入信道(IMAC)的无线蜂窝网络中的应用。通过深度强化学习(DRL)的两步训练框架,采用深度 Q 网络(DQN)和深度 Q 学习算法(DQL)从离线学习中获得指定数据集,而对于在线学习过程中的真实数据来说,DQN 可进一步微调。这种方法比现有的 DQL 训练方法更好,具有很好的推广能力。
Dec, 2018
本文提出了一种分布式执行的动态功率分配方案,基于无模型深度强化学习技术,通过收集 CSI 和服务质量(QoS)信息,每个发射机适应自己的发射功率,旨在最大化加权和速效用函数,可特化为实现最大总速率或比例公平调度。本方案特别适用于系统模型不精确,CSI 延迟不可忽略的实际场景,能够在真实时间内实现几乎最优的功率分配。
Aug, 2018
本文提出了一种分布式的深度强化学习资源分配技术,针对协作无线电网络所呈现的多智能体环境及其强化学习过程中可能导致的非平稳环境,通过考虑深度强化学习的特定方面,本文的算法能够迭代地收敛于一个平衡政策,其可用于无需与其他代理协调配合的情况下工作。仿真结果表明,与等效的基于 Q 表的 Q 学习算法相比,所提出的技术具有更快的学习性能,并能够在足够长的学习时间内在 99% 的情况下找到最优策略。此外,对于与等效的基于表格的实现相比,仿真结果显示出我们的 DQL 方法只需要不到一半的学习步骤才能实现相同的性能。此外,证明了在未协调交互的多无线电情景中使用标准的单智能体深度强化学习方法可能无法收敛。
May, 2022
本文提出了一种基于深度学习的资源分配策略,通过优化带宽和传输功率来最小化基站的总功耗,并使用级联结构的神经网络和深度迁移学习来应对无线网络中的非平稳性。实验结果表明,相对于全连接神经网络,在 QoS 保证方面,级联神经网络的性能更好。
Mar, 2020
本文阐述了在 5G 和 B5G 网络的资源调度问题上应用深度学习模型的相关体系结构和数据训练程序,并提供了现有基于深度学习模型在无线网络资源分配问题方面的最新研究进展。同时,介绍了一种基于监督学习的深度学习模型,在多小区网络中解决子带和功率分配问题。使用遗传算法生成的数据,首先根据数据训练模型,然后测试所提出的模型的准确性,仿真结果表明,训练的深度学习模型可以在 86.3%的时间内提供期望的最优解。
Aug, 2018
本文旨在研究一种利用强化学习算法在无线多业务系统中处理无线电资源分配问题的方法,通过在本地环境中与局部互动来寻找策略,实现了关于 9LTE 系统满足保证和 QoS 约束的无线资源分配。此外,通过计算模拟,本文与文献中的最新解决方案进行比较,并展示了后者在吞吐量和故障率方面近乎最优的性能。
Mar, 2020
本文提出了一个学习框架来优化无线网络的频谱和功率分配,使用两种分别针对离散和连续变量的强化学习算法来同时执行和训练,模拟结果表明该方案优于基于分数规划的算法和以往基于深度强化学习的解决方案。
Dec, 2020
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019
基于优化理论的深度强化学习框架被介绍用于联合设计控制和通信系统,并针对最小化功耗目标,在满足通信系统的调度性和速率约束以及控制系统的稳定性约束的前提下,通过优化理论和深度强化学习两个阶段的组合来实现,该方法在大量的模拟实验中表现出优于优化理论和纯深度强化学习方法的性能,接近最优性能且复杂度较低。
Nov, 2023