基于注意机制的多智能体强化学习在 LoRa 网络中提高能效
在遥远的农业和灾害救援行动中,地下 LoRaWAN 与非地面网络(NTN)的整合可提供显著的经济和社会效益。然而,在大规模地下 LoRaWAN NTN 中有效地分配扩频因子(SFs)以最小化同样 SF 的干扰仍然具有挑战性。为解决这个问题,我们研究了基于强化学习(RL)的 SFs 分配方案,以优化系统的能源效率(EE)。在密集网络中高效捕捉设备与环境的相互作用方面,我们提出了一种使用多智能体对抗性双重深度 Q 网络(MAD3QN)和多智能体优势演员 - 评论家(MAA2C)算法的 SFs 分配技术,基于分析性的奖励机制。我们提出的基于强化学习的 SFs 分配方法在极端地下到卫星的场景中表现出比四个基准方案更好的性能。值得注意的是,MAD3QN 在收敛速度和能源效率方面显示出了有希望超过 MAA2C 的潜力。
Nov, 2023
本文提出了一种分布式资源分配算法,利用强化学习的思想,将资源分配问题建模成多臂老虎机问题,并通过 MIX-MAB 算法解决,仿真结果表明该算法在收敛时间和数据包传输成功率等方面表现优异。
Jun, 2022
本文提出了一种方法,利用强化学习技术,在能源意识系统中连续进行弱训练,从而提高算法性能并节省能源。这种方法通过利用环境中的其他传感器提供弱标签,然后训练出模型。本方法在模拟本地化环境上进行了评估,并在可用的普遍健康数据集上进行了验证,以利用接收信号强度实现真实的住宅本地化。我们展示了该方法实施成本低、需要更少的工作门槛和能够提供随时间增加的性能改进和能源节约。
Nov, 2018
本文探讨了无线供电物联网网络上行传输的有效资源分配问题,选取 LoRa 技术作为物联网网络的例子,通过用户分组和功率分配达到提高网络吞吐量的目的;通过提出的 ECAA 方法和功率分配算法,实现了在用户本地分配通道访问和动态功率分配;通过数值结果说明,我们提出的算法成本略小于最优方法,优于随机通道分配,分布式功率分配策略比集中式离线方案具有更好的性能。
Oct, 2018
通过多智能体强化学习方法,本论文提出在资源受限条件下,为每个传感器找到最优的通信策略,以实现对环境数据进行准确跟踪,同时充分考虑功率和带宽的限制。实验结果表明,该方法能够在未知带宽限制下,平衡数据收集和预测野火蔓延的需求。
Aug, 2023
本文研究小型 IoT 系统中的能量收集、访问控制和电池预测问题,提出了基于强化学习和深度 Q 网络的三种算法,实验结果表明这些算法在性能上比现有基准方法更优秀。
May, 2018
我们提出了一个多智能体深度强化学习(MADRL)框架,用于训练低轨道卫星网络的下行多用户接入协议。通过改进现有学习的协议 eRACH,我们的方法 Ce2RACH 可以通过在 MADRL 训练过程中联合学习额外的信令消息来减轻卫星之间的干扰。仿真结果表明,与 eRACH 相比,Ce2RACH 的网络吞吐量提高了 36.65%,而信令消息的成本与用户数量呈线性增长。
Feb, 2024
本研究通过自学习、分布式学习的方法,适应环境,使物联网设备之间的通信参数最大程度优化,实现能源效率和通信可靠性的提高,并与中心化方式进行对比,结果显示本方法能显著提升物联网通信的能源效率和可靠性,在低成本和低功耗的物联网应用中具有很好的应用前景。
Jul, 2018
本文探讨了使用强化学习的在线协议合成的概念。 该研究在使用超低复杂度无线收发器的传感器和物联网网络的背景下进行。 该论文介绍了在不同的网络和流量条件下使用 RL 和 Multi Armed Bandit(MAB)(一种特定类型的 RL)来进行介质访问控制(MAC)。 该机制不依赖于载波感知、网络时间同步、碰撞检测和其他低级复杂操作,因此非常适合资源受限的传感器和物联网网络中使用的超简单收发器硬件。
Jan, 2023
该论文提出了一种密度感知的通信多智能体去中心化双重深度 Q 网络方法,它最大化了每个无人机的轨迹、已连接用户数量和无人机的能耗,同时跟踪密集和不均匀的用户分布。该方法优于现有技术 65%-85%的能源效率。
Jun, 2023