最优能量需求响应管理的平均场道德风险
我们研究了一种价格形成模型,其中大量小型参与者可以存储和交易电力。我们的模型是一种受限均值场博弈(MFG),价格是供需平衡条件的 Lagrange 乘子。我们确定了唯一解的存在,并使用固定点论证明了价格是随时间变化的 Lipschitz 函数。然后,我们对线性二次模型进行研究,可以明确求解,并将我们的模型与现实数据进行了比较。
Jul, 2018
本研究引入了平均场最优控制的概念,该概念是将建模多代理交互的 ODE 约束下的有限维最优控制问题与约束为 Vlasov 类型的 PDE 的无限维最优控制问题的严格极限过程。通过考虑损失函数中 $L^1$ -norm 项,惩罚广泛的控制组,同时促进其稀疏性,我们考虑关注政策制定者受到最佳策略的制约,以实现其与个体群体之间最简洁的相互作用。
Jun, 2013
本文主要讨论了基于 Mean Field Game 模型下交易者在面对大量参与者的市场中如何完成优化流动性或优化交易的问题,并探讨了不同风险态度下的交互和可以透过学习他人行为的方式进行交易决策。
Oct, 2016
针对具有无限个代理的离散时间平均场马尔科夫博弈,提出了一种基于模型无关增强学习和函数逼近的平场演员 - 评论家算法,该算法可以找到纳什均衡并具有全局收敛保证。
Oct, 2019
本文针对需求侧能源管理问题,提出了一种基于智能电网环境的多智能体深度强化学习算法,可以在保证可扩展性和隐私保护的前提下利用即时观测和价格信号来最小化总体成本,并降低家庭总能耗的峰谷比和电力费用。
May, 2020
本文研究了如何通过反应需求实现频率调控来整合高比例的可再生能源资源对电力网的影响。作者提出一个分散的代理模型,通过多代理近端政策优化和本地化通信进行训练。同时,文中探讨了两种通信框架:手工设计或通过目标化的多代理通信进行学习。最终的政策可以良好地、稳健地完成频率调节,并可以在恒定处理时间下无缝扩展到任意数量的房屋。
Jan, 2023
本文介绍了平均场强化学习方法,通过该方法可以近似处理不同智能体之间的互动,同时开发了多个实际的基于 Q-learning 和 Actor-Critic 的平均场算法模型,并分析了解决纳什均衡的收敛性,在高斯挤压、伊辛模型和博弈游戏等实验中验证了本方法的有效性。同时,作者报告了使用无模型的强化学习方法成功解决了伊辛模型问题。
Feb, 2018
本文研究了具有有限数量 N 的动态博弈的均场类型,每个时刻,代理通过其状态的经验分布相互耦合,并介绍了 Markov-Nash 均衡的新解决方案,证明了均衡存在于无穷大人口极限 N-> ∞下。
Dec, 2016
本文研究含有无穷个代理人的部分可观测的均场动态博弈,使用故意使原本的部分可观测随机控制问题变成一个置信度空间上的完全可观测问题的技术,建立了此类游戏模型的纳什均衡存在性,并证明了当代理人足够多时,采用均场均衡策略会形成近似纳什均衡。
May, 2017