- Wasserstein 近似算子描述基于评分的生成模型并解决记忆问题
我们着眼于得分基础生成模型(SGMs)的基本数学结构,以 Wasserstein 邻近算子(WPO)为基础进行了 SGMs 的数学形式重构,并通过均匀场博弈(MFGs)揭示出描述扩散和基于得分模型的归纳偏差的数学结构。借助 Cole-Hop - 基于模型的均场博弈强化学习并不比单智能体强化学习更难统计
通过引入局部模型产品逃避维度(P-MBED)概念,提出了一种模型消除算法,并建立了与 P-MBED 多项式相关的样本复杂度结果,从而揭示了在一定假设条件下,学习均场博弈中的纳什均衡不比解决对数数量的单智能体强化学习问题更具统计学挑战。
- 通过采样不变参数化的平均场博弈无监督解算子学习
基于深度学习的新框架通过学习 MFG 解算符,解决高维度均场博弈问题并具有采样不变性,从而避免了离散化,并减少了创建训练数据集的计算开销。
- 均场博弈中最大因果熵逆向强化学习
我们介绍了关于离散时间平均场博弈下最大因果熵逆强化学习问题。我们通过综述确定性和随机马尔科夫决策过程在有限和无限时域情景下的最大熵逆强化学习问题,提出了最大因果熵逆强化学习问题,这是一个非凸优化问题。我们使用线性规划的方式对问题进行了重构, - 关于均场博弈中的模仿问题
本文研究了均场博弈中的模仿学习问题,引入了 Nash 模仿差作为新的解决方案,研究发现在仅收益需求受到人口分布影响时,该问题等价于单智能体模仿学习,并给出了适用于整体系统动力学的新的上界限定。
- 用于生成建模的均值场博弈实验室
该研究表明,均场博弈论(MFGs)是解释、增强和设计生成模型的数学框架,该文研究了 MFGs 与基于流和扩散的几种生成模型之间的关系,并探讨了 MFGs 的最优性条件及其算法应用。
- ICLR面向人群大小的平均场博弈策略优化
本文提出了一种名为 PAPO 的方法,通过结合增强和超网络的方式,在同时考虑人口数量和生成策略的前提下,进行不同人口数量游戏的策略优化,并在多个环境中进行了实验和分析,验证了该方法在群体博弈中取得了非常显著的优越性。
- 凹形效用强化学习:均场博弈的视角
本研究介绍了基于凹效用函数的强化学习模型 CURL,它扩展了线性到凹效用,同时将模仿学习和探索等领域纳入范畴。该模型违反经典 Bellman 方程,需要新算法。本文通过证明 CURL 是 MFG 的子类,将两个社区联系了起来,并通过实验表明 - ICML具签名深层虚构博弈在带有公共噪声的均场博弈中的应用
该研究利用粗糙路径理论提出了一种名为签名深度虚拟博弈的新型单环算法,可避免嵌套循环结构以及显著降低计算复杂度,保证了 MFGs 的求解效率和精度,并在线性二次平均场博弈、均值场组合博弈和最优消费和投资的均值场博弈等应用中得到了支持。此外,该 - 具有竞争或同类互惠交互的 Ito 扩散市场中的 $N$ 人和场均值博弈
本文通过研究投资组合选择领域中 $N$-player 和共同噪声的均场博弈,探讨了随机个人风险偏好系数对游戏的影响,并推导了平衡随机过程、最优状态过程和游戏价值的显式或闭合形式解。
- 一种均场博弈的逆问题
该研究提出了一种用于重建运行成本中的基础度量和交互核的均值场游戏反问题模型,并证明了其鲁棒性和效率。
- 两种数值方法用于稳态场均值博弈
本文研究了两种解决平稳均场博弈的数值方法:基于变分特征的梯度流方法和利用单调性质的方法,并通过各种实例,包括一维周期性 MFG、拥堵问题和高维模型进行展示。