本文提出了一个学习框架来优化无线网络的频谱和功率分配,使用两种分别针对离散和连续变量的强化学习算法来同时执行和训练,模拟结果表明该方案优于基于分数规划的算法和以往基于深度强化学习的解决方案。
Dec, 2020
基于深度 Q 学习架构的多用户 MIMO 系统中的频率调度问题的调度器,使用分支行动方式实现子频段之间的并发传输,优化全局收益并满足实时系统的短推理时间要求。
Jun, 2024
研究动态频谱访问、网络效用最大化和分布式动态频谱访问算法,基于深度多用户强化学习,开发解决方案,并在多信道无线网络中进行实验评估。
Apr, 2017
本文提出一种基于深度强化学习的调制和编码方案选择算法,用于处理传感式次级用户干扰主信道的情况,建立在认知异构网络的架构下,运用开关成本因素可实现主信道速率和系统开销之间的平衡
Nov, 2018
本文研究了基于多智能体强化学习的车联网频谱共享问题,并使用适于分布式实现的基于指纹的深度 Q 网络方法解决了资源共享问题,展示了多个 V2V 智能体成功合作以分布式方式提高效率。
May, 2019
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019
本文采用深度强化学习(Deep RL)中的非线性价值函数逼近来实现智能脉冲雷达和相邻通信系统的动态非合作共存,并通过学习调整频率和中心频率,最大化雷达探测性能,保持对频带的充分利用。我们通过实验证明,与策略迭代或感知和避免(SAA)方法相比,基于 Deep Q-Learning(DQL)算法的方法更有效地提高雷达的重要性能度量,包括 SINR 和带宽利用率,同时维持良好的距离分辨率。我们还将 DQL 方法扩展到包括 Double Q-Learning 和递归神经网络,形成 Double Deep Recurrent Q-Network(DDRQN)。最后,我们用软件定义雷达(SDRadar)原型系统的实验结果证明了本文提出的深度强化学习方法在拥挤频谱环境下显著提高了雷达探测性能。
Jun, 2020
本文提出了使用多智能体深度强化学习机制的分布式资源管理和干扰抑制方案。该框架通过使智能体作出决策,从而解决了干扰和资源分配的问题。模拟结果表明,这种方法具有比分散式基线更高的性能,在与集中式信息论基线相媲美的同时,模型的鲁棒性得到了验证。
Feb, 2020
本文提出了一种分布式执行的动态功率分配方案,基于无模型深度强化学习技术,通过收集 CSI 和服务质量(QoS)信息,每个发射机适应自己的发射功率,旨在最大化加权和速效用函数,可特化为实现最大总速率或比例公平调度。本方案特别适用于系统模型不精确,CSI 延迟不可忽略的实际场景,能够在真实时间内实现几乎最优的功率分配。
Aug, 2018
本文提出了一种可扩展的强化学习方法,用于同时路由和频谱访问无线自组网中的信号传输,根据邻居节点的地理位置信息智能地制定联合路由和频谱分配决策。