本文提出了一种深度强化学习框架,从系统和算法两个角度来解决 Multi-player Online Battle Arena(MOBA)1v1 游戏中复杂动作控制的问题,通过包括控制依赖解耦、动作遮罩、目标注意力和双剪辑 PPO 等多种新颖策略,训练出可以在 MOBA 游戏王者荣耀中打败顶级人类选手的 AI 代理 Tencent Solo。
Dec, 2019
本文提出了一种新颖的分层强化学习模型,通过模仿学习从事宏观策略,并通过强化学习进行微观操作,以应对多人在线战斗竞技游戏 (MOBA) 中包含的大量状态空间、动作空间和隐藏信息,并且该模型在缺乏游戏引擎或 API 的情况下,还设计了一种密集的奖励函数来鼓励多个智能体合作。实验结果表明该方法能够在 MOBA 游戏中获得优异表现,如在王者荣耀 5v5 模式中成功与内置 AI 进行战斗且胜率达到 100%。
Jan, 2019
JueWu-SL 是第一个在多人在线战略游戏中通过监督学习实现人类水平表现的 AI 程序,通过对宏观战略和微管理进行端到端的神经网络整合,经过 Honor of Kings 的测试,在标准的 5v5 游戏中表现出和高王段位选手的竞争水平。
Nov, 2020
2019 年 4 月 13 日,OpenAI Five 成为首个击败电子竞技游戏世界冠军的 AI 系统,通过对分布式训练和强化学习技术的不断完善,OpenAI Five 进行了 10 个月的自我训练,并证明了自我对战强化学习技术在困难任务上能够实现超人类表现。
本文探讨了在 MOBA 游戏中使用人工智能进行游戏研究的主要特征和机会,并提出了一种离散模型,以更好地理解和探索游戏,以此来鼓励 MOBA 作为新的游戏人工智能研究平台的使用。
May, 2017
本研究提出了一种新的基于学习的分层宏观策略模型,用于掌握 MOBA 游戏,包括实现宏观策略决策和微观水平执行,每个代理人可以独立做出策略决策,并通过模拟跨代理人通信机制与盟友进行通信。在评估中,我们的 5 个 AI 团队在一种流行的 5v5 MOBA 游戏中取得了 48%的胜率,这些人类玩家团队在玩家排名系统中排名前 1%。
Dec, 2018
本研究通过使用一系列强化学习技术,包括层次化体系结构、课程转移学习和战斗模型等方法,在 StarCraft II 游戏上进行了训练,并获得了高胜率。我们还将我们的方法与 mini-AlphaStar 进行比较,证明了该方法的有效性。
Sep, 2022
本文提出了一种分层训练智能体的方法,以期在团队运动游戏中实现类似于人类的风格和高水平的表现,初步结果显示所提出的方法具有解决多智能体学习问题的潜力。
Jun, 2019
本论文研究了适用于 StarCraft II 游戏的分层强化学习方法,其中包括宏动作、双层分层结构以及课程转移学习算法,取得了较好的游戏成绩并证明了其强泛化性能。
Sep, 2018
本研究首次尝试通过设计一种有效和可解释的基于元命令通信的框架来促进 MOBA 游戏中的人 - 代理协作,在荣耀王者中进行的实验结果表明,MCC 代理可以与人类队友合作得相当好,并且甚至可以推广到与不同水平和数量的人类队友进行合作。
Apr, 2023