G-PCGRL:基于强化学习的程序化图数据生成
考虑从严格的行为数据中学习线性影响博弈 (LIGs) 的结构和参数,通过纯策略 Nash 平衡的最大似然估计 (MLE) 将学习问题转化为生成模型的估计,在控制平衡数量的同时捕捉数据中的均衡行为。该方法可以应用于识别大型 (社交) 网络中最有影响力的个体,并支持决策分析和其他普适性的图形游戏。
Jun, 2012
该研究提出了一种新的基于AlphaGo Zero的学习策略,将其与图嵌入和图神经网络相结合,解决了复杂的组合优化问题,同时取得了比相关方法更好的性能表现。
May, 2019
研究如何使用强化学习训练级别设计代理,将关卡设计视为游戏并将内容生成器本身学习,并探讨了三种不同的转换二维层次设计问题的马尔可夫决策过程,将其应用于三个游戏环境中。
Jan, 2020
通过使用端到端学习的图形结构表示,我们提出一种新颖的图形辅助转换器代理(GATA),并探究其如何计划和推广文本游戏,并证明学习到的基于图形的表示有助于代理人收敛到比纯文本模型更好的策略,促进游戏配置的有效推广。
Feb, 2020
使用强化学习实现程序化内容生成(PCGRL),通过可计算、用户定义的质量度量训练智能体优化3D环境下针对Minecraft游戏的任务,生成多样化的游戏关卡,展示了PCGRL在3D环境下的应用和潜力。
Jun, 2022
本篇论文介绍了一种创新方法,PCGPT框架,该方法利用离线强化学习和Transformer网络进行程序化内容生成(PCG)。PCGPT利用基于Transformer的自回归模型迭代生成游戏关卡,解决了传统PCG方法中重复、可预测或不一致的内容的挑战。该框架模拟动作、状态和奖励的轨迹,利用Transformer的自注意机制捕捉时间依赖性和因果关系。该方法在Sokoban益智游戏中进行了评估,模型预测了所需物品及其对应位置。Sokoban游戏的实验结果表明,PCGPT生成了更复杂和多样化的游戏内容。有趣的是,与现有方法相比,PCGPT在显著较少的步骤中实现了这些结果,展示了其增强游戏设计和在线内容生成的潜力。我们的模型代表了一种超越以往方法的新的PCG范例。
Oct, 2023
学习大规模代理人群的行为是许多研究领域的重要任务。尽管多智能体强化学习(MARL)领域在解决这些系统上取得了重要进展,但对于许多代理人,解决方案通常在计算上不可行且缺乏理论保证。平均场博弈(MFG)解决了这两个问题,并可扩展为包括代理人之间网络结构的图形MFG(GMFG)。尽管GMFG具有优点,但其在现实世界的适用性受限于图形只能捕捉到稠密图。因为大多数经验观察到的网络显示出一定程度的稀疏性,例如幂律图,所以GMFG框架不足以捕捉这些网络拓扑。因此,我们引入了图形拓扑MFG(GXMFG)的新概念,它基于图形理论概念图形拓扑。图形拓扑是稀疏图序列的极限对象,还具有其他有利特性,如小世界属性。由于底层图的丰富且稀疏结构,学习这些游戏的平衡是具有挑战性的。为了解决这些挑战,我们设计了一种针对GXMFG设置的新学习算法。这种混合图形拓扑学习方法利用系统主要由高度连接的核心和稀疏的外围组成的特点。在定义系统并提供理论分析之后,我们说明了我们的学习方法,并展示了它在合成图形和真实网络上的学习能力。这种比较表明,我们的GXMFG学习算法成功地将MFG扩展到一类难度高且现实的学习问题,而这些问题现有的MARL和MFG方法无法准确解决。
Jan, 2024
提出了一种使用强化学习来反驳图论猜想的方法,通过单人图构建游戏来最大化游戏得分,并通过选择适当的神经网络结构和引入新的带有拉普拉斯光谱标签的图数据集,系统化地探讨了这种方法并提出了四种不同的单人图构建游戏。
Jun, 2024
本研究解决了现有程序内容生成(PCGRL)面临的规模限制问题,通过在Jax中实现PCGRL环境,使得学习和模拟过程能够在GPU上并行运行,从而显著加快训练速度。研究表明,模型能够学习到更稳健的设计策略,并在超出训练数据的地图尺寸上表现出良好的泛化能力,这为设计师提供了更大的控制权。
Aug, 2024