用于生成建模的均值场博弈实验室
利用基于 M3FG(major-minor MFGs)的学习算法,我们提出了一种新的离散时间版本的 M3FG,能够解决具有强影响力的主要玩家的问题,并在三个实例问题中验证了该理论结果的实际效果,从而为一类广泛可解的博弈问题建立了学习框架。
Dec, 2023
本文研究了两种解决平稳均场博弈的数值方法:基于变分特征的梯度流方法和利用单调性质的方法,并通过各种实例,包括一维周期性 MFG、拥堵问题和高维模型进行展示。
Nov, 2015
本文介绍了一种结合了均场博弈和马尔科夫决策过程的模型,该模型能够解决大规模群体行为的表示和分布预测问题。通过深度逆强化学习,模型可以从真实数据中学习到均场博弈中的奖励函数和前向动态,以推断大型实际系统的均场博弈模型。首次将均场博弈模型应用到社交媒体人口研究领域。
Nov, 2017
本文提出了一种基于机器学习的灵活框架以数值解决潜在的平均场博弈和平均场控制问题,该框架避免使用空间离散化并利用拉格朗日和欧拉观点相结合的方法来近似解决高维问题。在标准工作站上近似解决了 100 维最优传输和人群运动问题,并在二维上进行了欧拉求解器的验证。这些结果为先前无法通过现有数值方法处理的 MFG 和 MFC 模型的应用开启了大门。
Dec, 2019
该论文综述如何运用强化学习和均值场博弈来解决无法通过传统方法计算的大规模人口问题,并针对静态、平稳和演变三个最常见的情境,提出一套基于最佳策略和策略评估的迭代方法以及没有模型计算的强化学习解决方案。
May, 2022
本文回顾了关于数值方法在 Mean Field Games 及 Mean Field Control 类型问题中应用的各种方面,包括基于线性二次型、偏微分方程数值方案、Kolmogorov-Fokker-Planck 方程优化技巧、基于单调算子视角的方法以及依赖于机器学习工具的随机方法等。
Jun, 2021
本文研究了离散时间有限 MFG 问题,通过使用熵正则化和 Boltzmann 策略使得固定点迭代收敛到近似固定点,同时提供了在高维场景下使用的近似 Nash 均衡算法以及结合虚拟博弈的深度强化学习方法。
Feb, 2021
本文提出了两种方法解决深度强化学习算法在非线性函数逼近下,无法很好地处理 mean field games 的情况。第一种方法是通过神经网络将历史数据蒸馏为混合策略,应用于 Fictitious Play 算法。第二种方法是一种基于正则化的在线混合方法,不需要记忆历史数据或先前的评估,可以扩展在线 Mirror Descent 算法。数值实验表明,这些方法有效地实现了使用深度强化学习算法来解决各种 mean field games 的目的,并且这些方法的表现优于文献中的 SotA 基线。
Mar, 2022
利用机器学习中的泛化功能,我们研究如何学习政策,使典型代理能够针对任何人口分布表现最佳。我们提出了一种方法来学习这样的 Master 策略,并且证明了单个 Master 策略提供了纳什均衡。我们的方法基于三个方面:将当前人口分布添加为观察的一部分,使用神经网络逼近 Master 策略,使用强化学习和虚拟博弈进行训练。我们通过数值示例展示了所学习的 Master 策略的高效性以及其超越训练中使用的分布的推广能力。
Sep, 2021
该研究利用粗糙路径理论提出了一种名为签名深度虚拟博弈的新型单环算法,可避免嵌套循环结构以及显著降低计算复杂度,保证了 MFGs 的求解效率和精度,并在线性二次平均场博弈、均值场组合博弈和最优消费和投资的均值场博弈等应用中得到了支持。此外,该论文还报道了首次使用深度学习处理带有共通噪声的扩展 MFGs。
Jun, 2021