对于基于强化学习的雾计算负载均衡,本文提出了一种终身学习框架,使用轻量级推理模型在部署期间最小化动作延迟,并在环境发生显著变化时进行重新训练,以提高性能、减少训练成本并适应这些变化。与现有文献相比,我们还应用了迁移学习来解决终身学习问题,尤其是在真实环境中从头开始学习时存在的失败概率问题。
Oct, 2023
本文提出了一种新的基于模型的联邦多智能体强化学习算法,用于协调多个无人机在数据收集任务中,以解决传统多智能体强化学习算法需要大量真实训练数据的问题,并在各个方面取得了良好的表现。
Jun, 2023
利用多智能体强化学习的分散式 POMDP 方法,通过图卷积强化学习和动态注意力技术实现信息传播,提供了可靠的协作信息传播解决方案。
Aug, 2023
通过多智能体强化学习方法,本论文提出在资源受限条件下,为每个传感器找到最优的通信策略,以实现对环境数据进行准确跟踪,同时充分考虑功率和带宽的限制。实验结果表明,该方法能够在未知带宽限制下,平衡数据收集和预测野火蔓延的需求。
本文回顾了多智能体强化学习的一个分支领域 —— 网络化智能体下的去中心化多智能体强化学习。该领域的研究主要集中在多个代理在公共环境中执行顺序决策,而无需任何中央控制器的协调。代理可以通过通信网络与其邻居交换信息。此设置在机器人,无人驾驶车辆,移动传感器网络和智能电网的控制和操作中具有广泛应用。
Dec, 2019
我们提出了 InforMARL,一种新的多智能体强化学习体系结构,用于解决当观察到的只是每个智能体的局部邻域时的多智能体导航和避碰问题。该系统使用图神经网络聚合智能体的本地邻域信息,分别用于演员和评论家,能与任何标准的多智能体强化学习算法配合使用,并在测试中证明了其在环境具有任意数量的智能体和障碍物的情况下表现出良好的可扩展性。
Nov, 2022
本文总结了分布式无模型多智能体强化学习在多机器人协作中面临的挑战以及现有的解决方案类别,并介绍了基准测试和机器人应用,同时讨论了当前的研究方向。
Apr, 2022
本文利用多智能体强化学习框架,研究了数据中心(DCs)中多个负载均衡器(LBs)的网络负载均衡问题。将多智能体负载均衡问题表示为马尔科夫潜在博弈,并提出了一种全分布式的 MARL 算法,通过仿真实验证明了该算法的优越性。
Jun, 2022
本文提出了一种基于 Multi-Agent Reinforcement Learning 的 Federated learning 框架 - FedMarl,该框架不仅可以显著提高模型精度,还能大幅降低处理延迟和通信成本,从而解决了 Federated learning 在实际应用中的训练效率问题。
Jan, 2022
提出了一个高学习效率、计算要求低的多目标、多智能体强化学习算法,适用于动态、分布式和嘈杂环境,通过稀疏和延迟奖励自动触发自适应的少样本学习,在智能交通系统中经过实证研究和与现有算法的比较,取得了更好的性能。
Mar, 2024