学习深度均场博弈以建模大规模人群行为
该论文综述如何运用强化学习和均值场博弈来解决无法通过传统方法计算的大规模人口问题,并针对静态、平稳和演变三个最常见的情境,提出一套基于最佳策略和策略评估的迭代方法以及没有模型计算的强化学习解决方案。
May, 2022
我们提出了一种方法,使大量智能体学习群集行为,我们将问题视为均值场博弈,并结合深度强化学习和标准化流的算法找到纳什均衡来适应所在群体的平均速度,我们将其应用于多组或高维群集,并在学习过程中增加了障碍。
May, 2021
使用在线样本,无需先验知识的状态 - 动作空间、奖励函数或转移动态,通过值函数 (Q) 更新策略,同时评估均场状态 (M),以有效逼近固定点迭代 (FPI) 的两种变种的新型在线单智能体无模型学习方案的功效通过数值实验得到确认。
May, 2024
本文研究了均场博弈中的模仿学习问题,引入了 Nash 模仿差作为新的解决方案,研究发现在仅收益需求受到人口分布影响时,该问题等价于单智能体模仿学习,并给出了适用于整体系统动力学的新的上界限定。
Jun, 2023
利用基于 M3FG(major-minor MFGs)的学习算法,我们提出了一种新的离散时间版本的 M3FG,能够解决具有强影响力的主要玩家的问题,并在三个实例问题中验证了该理论结果的实际效果,从而为一类广泛可解的博弈问题建立了学习框架。
Dec, 2023
本文提出了两种方法解决深度强化学习算法在非线性函数逼近下,无法很好地处理 mean field games 的情况。第一种方法是通过神经网络将历史数据蒸馏为混合策略,应用于 Fictitious Play 算法。第二种方法是一种基于正则化的在线混合方法,不需要记忆历史数据或先前的评估,可以扩展在线 Mirror Descent 算法。数值实验表明,这些方法有效地实现了使用深度强化学习算法来解决各种 mean field games 的目的,并且这些方法的表现优于文献中的 SotA 基线。
Mar, 2022
我们提出了一种深度强化学习算法,通过设计额外的内循环重放缓冲区,代理可以有效地学习如何从任何分布实现纳什均衡,从而在大规模多智能体系统中实现依赖于人口的纳什均衡。数值实验结果表明,我们的算法具有比现有技术的算法更好的收敛性质,特别是对于依赖于人口的策略的虚拟游戏的深度强化学习版本。
Mar, 2024
利用机器学习中的泛化功能,我们研究如何学习政策,使典型代理能够针对任何人口分布表现最佳。我们提出了一种方法来学习这样的 Master 策略,并且证明了单个 Master 策略提供了纳什均衡。我们的方法基于三个方面:将当前人口分布添加为观察的一部分,使用神经网络逼近 Master 策略,使用强化学习和虚拟博弈进行训练。我们通过数值示例展示了所学习的 Master 策略的高效性以及其超越训练中使用的分布的推广能力。
Sep, 2021
通过利用高斯过程 (Gaussian Process) 框架来解决均场博弈 (mean field games) 中的反问题,我们的方法是一种概率工具,通过部分和嘈杂的观测数据来推断均场博弈中代理的行为和环境的配置。
Dec, 2023
本文研究了离散时间有限 MFG 问题,通过使用熵正则化和 Boltzmann 策略使得固定点迭代收敛到近似固定点,同时提供了在高维场景下使用的近似 Nash 均衡算法以及结合虚拟博弈的深度强化学习方法。
Feb, 2021