研究多通道接入的问题,应用深度 Q 网络实现对于未知系统动态的自适应学习,以最大化长期回报,通过仿真与实际数据跟踪比较表明该方法在更为复杂的情境下具有最佳性能。
Feb, 2018
本文提出了一个学习框架来优化无线网络的频谱和功率分配,使用两种分别针对离散和连续变量的强化学习算法来同时执行和训练,模拟结果表明该方案优于基于分数规划的算法和以往基于深度强化学习的解决方案。
Dec, 2020
本文针对认知无线电网络中的多个次级用户争取多个信道的机会问题,提出去中心化多臂赌博问题,并设计出一种去中心化的在线学习策略,以达到尽可能降低总体期望回报与所有用户回归之间的差距。其中,分别考虑了优先级排序和公平访问策略。
Apr, 2011
本文提出了一种分布式执行的动态功率分配方案,基于无模型深度强化学习技术,通过收集 CSI 和服务质量(QoS)信息,每个发射机适应自己的发射功率,旨在最大化加权和速效用函数,可特化为实现最大总速率或比例公平调度。本方案特别适用于系统模型不精确,CSI 延迟不可忽略的实际场景,能够在真实时间内实现几乎最优的功率分配。
Aug, 2018
本文提出一种新型的动态频谱共享方案,并使用深度强化学习算法基于蒙特卡罗树搜索进行资源分配,该方案能够在考虑未来网络状态的情况下执行操作,比当前的其他方案表现更好。
Feb, 2021
本文提出了使用多智能体深度强化学习机制的分布式资源管理和干扰抑制方案。该框架通过使智能体作出决策,从而解决了干扰和资源分配的问题。模拟结果表明,这种方法具有比分散式基线更高的性能,在与集中式信息论基线相媲美的同时,模型的鲁棒性得到了验证。
Feb, 2020
本文提出了一种可扩展的强化学习方法,用于同时路由和频谱访问无线自组网中的信号传输,根据邻居节点的地理位置信息智能地制定联合路由和频谱分配决策。
本文研究了基于多智能体强化学习的车联网频谱共享问题,并使用适于分布式实现的基于指纹的深度 Q 网络方法解决了资源共享问题,展示了多个 V2V 智能体成功合作以分布式方式提高效率。
May, 2019
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019
本研究介绍了在语义感知的范式下,如何通过资源分配决策来优化利用公平度的权衡,同时考虑到用户数据相关性。通过引入自我和协助吞吐量的概念,提出了一种新的无线频谱多接入问题的解决方法,利用 α 公平度度量优化。通过单信道和多信道的场景评估,发现在各种 α 值、关联矩阵和信道条件下,SAMA-D3QL 方法都表现优于其他方法,从而为未来联邦动态应用的实现提供了有希望的候选方案。
Jan, 2024