大型局部队列系统中的稀疏均场负载平衡
我们研究了在一个拥有大量设备和一组边缘服务器的稠密网络中的分散任务卸载和负载平衡问题。通过将均值场多智能体多臂赌博(MAB)游戏与一种负载平衡技术相结合,调整服务器的奖励以实现目标人口分布,解决了由于未知网络信息和随机任务大小而导致的复杂优化问题。数值结果证明了我们方法的有效性和对目标负载分布的收敛。
Jun, 2024
本文介绍了平均场强化学习方法,通过该方法可以近似处理不同智能体之间的互动,同时开发了多个实际的基于 Q-learning 和 Actor-Critic 的平均场算法模型,并分析了解决纳什均衡的收敛性,在高斯挤压、伊辛模型和博弈游戏等实验中验证了本方法的有效性。同时,作者报告了使用无模型的强化学习方法成功解决了伊辛模型问题。
Feb, 2018
本文提出了一种基于均场控制的智能机器人群体行为设计框架,结合碰撞避免和均场控制学习,通过单智能体分布控制实现多智能体分布控制,实现分布式开环应用并避免碰撞,并在理论和实践上对其进行了有效性验证。
Sep, 2022
这篇综述论文研究了在大规模群体系统中进行可控分析和多智能体强化学习的关键问题和挑战,介绍了现有的相关研究领域和方法,并讨论了未来的应用前景和方向。
Sep, 2022
本文研究了具有无限相互作用 agent(例如群体)的平均场多智能体系统,使用经典的假设和单个学习算法分析了虚构迭代方案的收敛性,证明了无模型学习算法在经典 MFG 动力学假设情况下收敛于非平稳 MFG 平衡,采用深度 RL 算法在连续动作空间环境中计算了该虚构博弈方案的近似最佳响应。
Jul, 2019
使用在线梯度队列和聚类的机制来增强数据批次中的稀疏成分,提高大型批次更新中信息梯度的效果。通过测量梯度稀缺程度和聚类方法,该机制在最小化冲突成分的同时,增加了批次边界的优化,从而更好地接近最小值。该方法在 CIFAR10、MNIST 和 Reuters News 分类数据集上表现出了优越性能,相较于小批量梯度下降方法。
Apr, 2024
本文提出了两种方法解决深度强化学习算法在非线性函数逼近下,无法很好地处理 mean field games 的情况。第一种方法是通过神经网络将历史数据蒸馏为混合策略,应用于 Fictitious Play 算法。第二种方法是一种基于正则化的在线混合方法,不需要记忆历史数据或先前的评估,可以扩展在线 Mirror Descent 算法。数值实验表明,这些方法有效地实现了使用深度强化学习算法来解决各种 mean field games 的目的,并且这些方法的表现优于文献中的 SotA 基线。
Mar, 2022
本文提出一种联合自动扩展和负载均衡方案,不需要任何全局队列长度信息或系统参数的显式知识,并提供可证明近似最优的服务弹性,同时分布式地进行操作并仅涉及每个任务的常量通信开销,从而确保在大规模数据中心操作中具有可扩展性。
Mar, 2017