提升技巧,掌握策略卡牌游戏(炉石传说)
本文借鉴了深度强化学习和虚构学习的思想,针对多阶段游戏存在的问题提出了一种端到端的策略,并提出了乐观的平滑虚构学习算法,在 Legends of Code and Magic 卡牌游戏中寻找纳什均衡,最终表现卓越,获得 COG2022 竞赛双料冠军,验证和展示了我们方法的先进性。
Mar, 2023
本文总结了基于 Collectible Card Game (CCG) Legends of Code and Magic (LOCM) 的五年 AI 竞赛,介绍了比赛规则、历史、参赛者的方法,以及组织 AI 竞赛的一些建议。
May, 2023
本研究提出了一种新的基于学习的分层宏观策略模型,用于掌握 MOBA 游戏,包括实现宏观策略决策和微观水平执行,每个代理人可以独立做出策略决策,并通过模拟跨代理人通信机制与盟友进行通信。在评估中,我们的 5 个 AI 团队在一种流行的 5v5 MOBA 游戏中取得了 48%的胜率,这些人类玩家团队在玩家排名系统中排名前 1%。
Dec, 2018
这项研究介绍了一种针对《魔戒卡牌游戏》的两阶段强化学习策略,采用分阶段学习方法,通过在简化版本和完整的游戏环境中逐步学习,显著提高了人工智能代理在面对《魔戒卡牌游戏》的不可预测和具有挑战性的情境中的适应能力和表现。此外,论文还探讨了多智能体系统,其中不同的强化学习代理用于游戏的各个决策方面,并在一组 10,000 局随机游戏中实现了 78.5%的胜率提升。
Nov, 2023
利用深度强化学习,包括全局奖励预测、指导预测和运行时策略自适应等新技术设计了名为 Suphx 的 AI 麻将程序,并在性能上超过了大多数顶尖的人类玩家,在 Tenhou 平台上被评为超过 99.99% 的所有官方排名人类玩家,标志着计算机程序首次在麻将中超越了大多数顶尖的人类玩家。
Mar, 2020
本研究基于 AlphaStar 的技术,利用多项创新性技术,如新型联赛训练方法、配合规则的策略搜索、稳定的策略改进、轻量级神经网络架构、模仿学习中的重要性采样等,开发出一款名为 TStarBot-X 的 AI 代理程序,在计算能力有限制条件下可以与人类玩家进行竞争,研究结果对于如 StarCraft 这类复杂问题的学术和工业研究可能具有重要意义。
Nov, 2020
本文介绍了一项基于《上古卷轴》中的双人卡牌游戏的 AI 挑战赛,目标在于开发应对随机性、信息不对称、策略多样等多种挑战的 AI 算法,该比赛旨在鼓励使用经典对抗搜索、单人策略规划和神经网络等多种算法进行游戏策略实现,是 CCG 领域中首次针对卡组构筑的 AI 挑战赛。
May, 2023
JueWu-SL 是第一个在多人在线战略游戏中通过监督学习实现人类水平表现的 AI 程序,通过对宏观战略和微管理进行端到端的神经网络整合,经过 Honor of Kings 的测试,在标准的 5v5 游戏中表现出和高王段位选手的竞争水平。
Nov, 2020
本文中,我们提出了两种基于深度强化学习框架和分层动作空间的 AI 智能体 TStarBot1 和 TStarBot2,并评估它们在星际争霸 II 全场游戏中的表现,成功地战胜了从 1 至 10 级内置 AI 对手,标志着深度强化学习在星际争霸 II AI 研究领域取得了重要进展。
Sep, 2018