使用强化学习实现程序化内容生成(PCGRL),通过可计算、用户定义的质量度量训练智能体优化 3D 环境下针对 Minecraft 游戏的任务,生成多样化的游戏关卡,展示了 PCGRL 在 3D 环境下的应用和潜力。
Jun, 2022
本文旨在探讨使用机器学习的方法生成游戏内容,涉及的技术包括神经网络、马尔可夫模型等,讨论了该方法在游戏设计中的应用及存在的问题。
Feb, 2017
研究了游戏中的 Procedural Content Generation (PCG) 对于增加机器学习方法的通用性的重要性,特别是学习算法对于过度拟合的困扰和参数随机化的抗拟合方法,以增加算法对于不同环境的适应性和回报。
Nov, 2019
该论文提出了一种名为 GPN 的算法,通过代理玩游戏,学习可玩关卡的分布,从而实现自动生成游戏关卡,避免了人类设计的限制,并用 2D 地牢游戏训练和展示了该框架的能力。
Feb, 2020
本文探讨了通过在训练中使用过程化生成的关卡如何增加模型的泛化性能,并研究了其与人类设计的关卡的关系。结果表明,通过降低难度、调整关卡设计,可以获得更好的性能表现,并进行了降维和聚类分析来评估关卡生成器的分布。
Jun, 2018
本文介绍了一个通过 PLGML 代理进行共创级别设计的框架,并通过用户研究和比较研究的结果来支持该框架。
Sep, 2018
本文提出了一种将进化搜索和强化学习相结合的框架,通过行为克隆将演化的关卡序列提炼为策略,以生成更快速的关卡,我们将其应用于迷宫游戏和超级马里奥兄弟中,结果表明该方法能够显著缩短关卡生成的时间。
Jul, 2022
通过利用人类注释的游戏玩法视频,实现一种多重尾部框架,该框架学习执行同时水平转换和生成的任务,具有在 Level 传输中提高总体性能的潜力,并展示未来版本泛化到未见过游戏的可能性。
Jun, 2023
通过有限集的初始种子和一些训练稳定的修改,我们提出了一种基于对抗性反向强化学习的技术,名为 DE-AIRL,该技术能够显著减少对专家演示的需求,并仍能够将回报函数外推到完全程序化域,我们在 MiniGrid 和 DeepCrawl 的两个程序化环境中展示了我们的技术的有效性。
Dec, 2020
本篇论文介绍了一种创新方法,PCGPT 框架,该方法利用离线强化学习和 Transformer 网络进行程序化内容生成(PCG)。PCGPT 利用基于 Transformer 的自回归模型迭代生成游戏关卡,解决了传统 PCG 方法中重复、可预测或不一致的内容的挑战。该框架模拟动作、状态和奖励的轨迹,利用 Transformer 的自注意机制捕捉时间依赖性和因果关系。该方法在 Sokoban 益智游戏中进行了评估,模型预测了所需物品及其对应位置。Sokoban 游戏的实验结果表明,PCGPT 生成了更复杂和多样化的游戏内容。有趣的是,与现有方法相比,PCGPT 在显著较少的步骤中实现了这些结果,展示了其增强游戏设计和在线内容生成的潜力。我们的模型代表了一种超越以往方法的新的 PCG 范例。
Oct, 2023