利用Transformer模型进行StarCraft宏观管理预测
本研究以即时战略游戏StarCraft为基础,通过使用深度神经网络控制器及启发式强化学习算法来解决些许的问题,同时展现此算法适用于将士兵实时控制过程转化为强化学习问题,获得了良好效果。
Sep, 2016
本文介绍了如何使用深度学习从游戏回放数据中学习StarCraft中的宏观管理决策,并在开源的StarCraft机器人UAlbertaBot中实现,取得了比游戏内置bot更好的表现。该方法能够表达各种不同的策略,并且可以进一步通过深度强化学习提高表现,最终实现不再依赖硬编码策略的强大StarCraft bot。
Jul, 2017
为了提高Starcraft中的宏观管理研究,我们基于SC2LE平台发布了一个名为MSC的新数据集,MSC由精心设计的特征向量、预定义的高级操作和每场比赛的最终结果组成,并将其拆分为训练、验证和测试集,以方便评估和比较。
Oct, 2017
本文提出了一种强化学习和课程迁移学习方法,用于在StarCraft的微观管理中控制多个单位。通过定义高效的状态表示,并采用参数共享多智能体梯度下降Sarsa算法,使用神经网络作为函数逼近器来评估动作价值函数,建立奖励函数,使用迁移学习方法将模型推广到更具挑战性的情境,并鼓励协作行为,成功地在小规模情境中将内置AI击败。在大规模情境中,使用课程迁移学习方法逐步训练一组单位,并在目标情境中显示出优越的性能。
Apr, 2018
本论文研究了适用于StarCraft II游戏的分层强化学习方法,其中包括宏动作、双层分层结构以及课程转移学习算法,取得了较好的游戏成绩并证明了其强泛化性能。
Sep, 2018
本研究提出了一种新颖的StarCraft II AI模块化架构,其通过分配不同的模块控制游戏的不同方面(例如选址和策略),实现了独立或联合优化,并采用深度强化学习技术,通过自我对战进行训练,对六个模块中的两个模块进行训练,以94%或87%的胜率在Zerg vs.Zerg比赛中击败了“Harder (5级)”Blizzard bot,具有适用性及实用价值。
Nov, 2018
本研究采用基于深度强化学习的方法构建了一款名为LastOrder的机器人,旨在提高StarCraft游戏中宏观行动的选择。实验表明,LastOrder在AIIDE'17 StarCraft AI比赛中排名前列,证明了该方法的有效性。
Dec, 2018
本文介绍了基于深度强化学习的智能体 StarCraft Commander (SCC),通过优化效率和以少量复杂度达到媲美GM级水平及击败职业玩家的成果,为进一步在复杂即时策略游戏方向探究提供了可能与展望。该成果对应用深度学习模型进行模仿学习和强化学习进行了关键分析和优化。
Dec, 2020
本研究通过使用一系列强化学习技术,包括层次化体系结构、课程转移学习和战斗模型等方法,在 StarCraft II 游戏上进行了训练,并获得了高胜率。我们还将我们的方法与 mini-AlphaStar 进行比较,证明了该方法的有效性。
Sep, 2022