AlphaStar: 一种进化计算的视角
本研究基于 AlphaStar 的技术,利用多项创新性技术,如新型联赛训练方法、配合规则的策略搜索、稳定的策略改进、轻量级神经网络架构、模仿学习中的重要性采样等,开发出一款名为 TStarBot-X 的 AI 代理程序,在计算能力有限制条件下可以与人类玩家进行竞争,研究结果对于如 StarCraft 这类复杂问题的学术和工业研究可能具有重要意义。
Nov, 2020
本文介绍了基于深度强化学习的智能体 StarCraft Commander (SCC),通过优化效率和以少量复杂度达到媲美 GM 级水平及击败职业玩家的成果,为进一步在复杂即时策略游戏方向探究提供了可能与展望。该成果对应用深度学习模型进行模仿学习和强化学习进行了关键分析和优化。
Dec, 2020
这篇论文在 StarCraft II 这个具有挑战性的强化学习环境中,利用大量的离线数据集和机器学习方法,建立了一个新的基准 AlphaStar Unplugged,提出了离线强化学习的前沿技术,并且取得了 90% 的胜率。
Aug, 2023
本文中,我们提出了两种基于深度强化学习框架和分层动作空间的 AI 智能体 TStarBot1 和 TStarBot2,并评估它们在星际争霸 II 全场游戏中的表现,成功地战胜了从 1 至 10 级内置 AI 对手,标志着深度强化学习在星际争霸 II AI 研究领域取得了重要进展。
Sep, 2018
本研究通过使用一系列强化学习技术,包括层次化体系结构、课程转移学习和战斗模型等方法,在 StarCraft II 游戏上进行了训练,并获得了高胜率。我们还将我们的方法与 mini-AlphaStar 进行比较,证明了该方法的有效性。
Sep, 2022
本文介绍了如何使用深度学习从游戏回放数据中学习 StarCraft 中的宏观管理决策,并在开源的 StarCraft 机器人 UAlbertaBot 中实现,取得了比游戏内置 bot 更好的表现。该方法能够表达各种不同的策略,并且可以进一步通过深度强化学习提高表现,最终实现不再依赖硬编码策略的强大 StarCraft bot。
Jul, 2017
本研究提出了一种新颖的 StarCraft II AI 模块化架构,其通过分配不同的模块控制游戏的不同方面(例如选址和策略),实现了独立或联合优化,并采用深度强化学习技术,通过自我对战进行训练,对六个模块中的两个模块进行训练,以 94%或 87%的胜率在 Zerg vs.Zerg 比赛中击败了 “Harder (5 级)”Blizzard bot,具有适用性及实用价值。
Nov, 2018
研究人员基于人类下棋决策的详细数据,通过 AlphaZero 构建了一种定制化的人工智能引擎 Maia,能够更准确地预测人类棋手的下棋。这项研究表明,重点是建立精确的人类决策模型,安装有人类协作的人工智能系统具有很大的潜力。
Jun, 2020
通过开发文本化的 StratCraft II 环境,利用大型语言模型代理实现游戏性能评估,研究表明大型语言模型代理在应对 StarCraft II 场景中具备相关知识和复杂规划能力,性能接近于玩了八年 StarCraft II 的普通玩家,并能够击败 Harder (Lv5) 的内置 AI。
Dec, 2023