我们提出了一种强化学习算法,用于以统一的方式解决连续空间均场博弈和均场控制问题。该算法使用参考分数函数和 Langevin 动力学来表示均场分布,通过在线方式高效地更新,并通过迭代更新,收敛于给定均场问题的均衡点或最优点。该算法可以简单修改以解决混合均场控制博弈,并在渐进无限时域框架中使用线性二次基准函数进行性能评估。
Sep, 2023
本研究提出了一种强化学习算法,通过调整两个学习参数的比例,同一算法可以学习解决无限时间视角的均值场游戏与控制问题,并通过离散时间和空间中的智能体提供环境动作与状态分布来解决均值场问题。在连续时间和空间中展示渐进性均值场游戏与控制问题,并使用线性二次问题得到显式解作为算法结果的基准。
Jun, 2020
本文介绍了平均场强化学习方法,通过该方法可以近似处理不同智能体之间的互动,同时开发了多个实际的基于 Q-learning 和 Actor-Critic 的平均场算法模型,并分析了解决纳什均衡的收敛性,在高斯挤压、伊辛模型和博弈游戏等实验中验证了本方法的有效性。同时,作者报告了使用无模型的强化学习方法成功解决了伊辛模型问题。
Feb, 2018
本篇研究探讨了 Reinforcement Learning 在 Mean-Field Control 和 Mean-Field Game 中的统计效率,提出了基于 Optimistic Maximal Likelihood Estimation 的算法,并通过建立新概念 Mean-Field Model-Based Eluder Dimension 来解决一系列问题。同时,该研究结果展示了单智能体 RL、MFC 和 MFG 在样本效率方面存在根本差异。
May, 2023
研究如何通过强化学习来解决机器人之间进行优化的问题,证明了基于策略梯度方法的算法在均值场问题中能够收敛。
Oct, 2019
在条件 McKean-Vlasov MDP 模型中,对状态和行动间的平均场作用以及存在公共噪声和无限时间视野下的开环控制的优化进行了详尽的研究。通过间隔最优匹配证明了 CMKV-MDP 与概率测度空间上的一般抬升 MDP 之间的对应,并且通过构建值函数所满足的动态规划 Bellman 定点方程,证明了存在最优的随机反馈控制。
Dec, 2019
本文介绍了一种结合了均场博弈和马尔科夫决策过程的模型,该模型能够解决大规模群体行为的表示和分布预测问题。通过深度逆强化学习,模型可以从真实数据中学习到均场博弈中的奖励函数和前向动态,以推断大型实际系统的均场博弈模型。首次将均场博弈模型应用到社交媒体人口研究领域。
Nov, 2017
该研究借助平均场控制方法,针对多智能体强化学习面临的高维诅咒问题,提出了一种基于无模型核心的 Q 学习算法。实验结果表明,本算法在大规模多智能体网络拥塞问题中,具有较好的解决性能。
Feb, 2020
使用在线样本,无需先验知识的状态 - 动作空间、奖励函数或转移动态,通过值函数 (Q) 更新策略,同时评估均场状态 (M),以有效逼近固定点迭代 (FPI) 的两种变种的新型在线单智能体无模型学习方案的功效通过数值实验得到确认。
May, 2024
本文介绍一种名为 MF-PPO 的算法,它采用邻域策略梯度更新来调整变差的均值场博弈策略,从而提高非合作多智能体强化学习系统的稳定性和效率。
Apr, 2023