无线系统通过异步多用户深度强化学习实现交接控制
下一代蜂窝网络将采用机器学习进行优化,利用更高频段和更密集部署来满足各种服务需求,然而这种进化也带来了挑战,尤其是在移动性管理方面,我们提出了一种基于深度学习的算法来预测未来的服务单元,以减少切换失败和中断时间,通过转移学习优化网络目标,结果表明我们的算法可以高精度地预测未来的服务单元并大幅减少重新训练时间。
Apr, 2024
本文提出了使用多智能体深度强化学习机制的分布式资源管理和干扰抑制方案。该框架通过使智能体作出决策,从而解决了干扰和资源分配的问题。模拟结果表明,这种方法具有比分散式基线更高的性能,在与集中式信息论基线相媲美的同时,模型的鲁棒性得到了验证。
Feb, 2020
本文提出了两种基于深度强化学习的算法来解决共生射频网络中的用户关联问题,该问题的目标是将每个 IoT 设备与一个适当的蜂窝网络用户链接起来,以最大化所有 IoT 设备的总速率,同时分别利用全局和本地信息来做决策,从而达到与需要完美实时信息的最优用户关联策略相同的性能,并且分布式 DRL 算法具有可伸缩性。
May, 2019
本文研究小型 IoT 系统中的能量收集、访问控制和电池预测问题,提出了基于强化学习和深度 Q 网络的三种算法,实验结果表明这些算法在性能上比现有基准方法更优秀。
May, 2018
本研究提出了一种新颖的基于强化学习的交接协议(DHO),针对低地球轨道(LEO)卫星网络中长延迟挑战进行设计。DHO 通过预定的 LEO 卫星轨道图案进行训练,利用其预测能力跳过交接过程中的测量报告(MR),从而消除 MR 阶段产生的传播延迟,并提供有效的交接决策。经实验证明,DHO 在各种网络条件下优于传统交接协议,表现出对实际网络的适用性。此外,该研究还探讨了访问延迟与冲突率之间的权衡,以及使用不同 DRL 算法评估 DHO 的训练性能和收敛性。
Oct, 2023
本文研究了基于深度强化学习的无模型无需解析解的动力控制方案在跨单元合作、离线 / 在线集中训练和分布式执行等方面的数学分析和具体实现。 分析和仿真结果表明,DRL 设计在性能、鲁棒性和广泛可用性方面优于基于模型的方法,特别是 actor-critic 深度确定性策略梯度算法,可用于现有资源分配方案。
Jan, 2019
本文提出了一种分布式执行的动态功率分配方案,基于无模型深度强化学习技术,通过收集 CSI 和服务质量(QoS)信息,每个发射机适应自己的发射功率,旨在最大化加权和速效用函数,可特化为实现最大总速率或比例公平调度。本方案特别适用于系统模型不精确,CSI 延迟不可忽略的实际场景,能够在真实时间内实现几乎最优的功率分配。
Aug, 2018
基于优化理论的深度强化学习框架被介绍用于联合设计控制和通信系统,并针对最小化功耗目标,在满足通信系统的调度性和速率约束以及控制系统的稳定性约束的前提下,通过优化理论和深度强化学习两个阶段的组合来实现,该方法在大量的模拟实验中表现出优于优化理论和纯深度强化学习方法的性能,接近最优性能且复杂度较低。
Nov, 2023
探究基于无线网络控制系统的深度学习协同设计,使用新型深度强化学习算法与 AoI 技术构建控制器和调度器,提高数据准确性并增强联合训练的稳定性,以此解决传统设计方法中大量难以有效解决的问题,并在不同场景中提供显著的性能表现.
Oct, 2022
该研究提出了一种在多个无人机的辅助下,针对动态环境中的无线供能通信网络(WPCN)的新设计。通过引入新的基于双阈值的无线节点类型更新规则,以及多智能体深度强化学习(MAHDRL)框架,能有效解决航迹决策和能源传输与数据收集决策的优化问题。通过大量的仿真实验结果验证了该方法在各种国际先进基准测试中的卓越性能。
Dec, 2023