学习击败 ByteRL:可收集卡牌游戏智能体的可利用性
本文采用一种基于 AI 的策略卡牌游戏玩法,结合乐高魔法、炉石传说等游戏的机制,将多个模型算法应用于炉石传说,并且测试结果表明在与顶尖的人类选手 Best-of-5 比赛中胜出的能力非常强。
Mar, 2023
本文借鉴了深度强化学习和虚构学习的思想,针对多阶段游戏存在的问题提出了一种端到端的策略,并提出了乐观的平滑虚构学习算法,在 Legends of Code and Magic 卡牌游戏中寻找纳什均衡,最终表现卓越,获得 COG2022 竞赛双料冠军,验证和展示了我们方法的先进性。
Mar, 2023
这项研究介绍了一种针对《魔戒卡牌游戏》的两阶段强化学习策略,采用分阶段学习方法,通过在简化版本和完整的游戏环境中逐步学习,显著提高了人工智能代理在面对《魔戒卡牌游戏》的不可预测和具有挑战性的情境中的适应能力和表现。此外,论文还探讨了多智能体系统,其中不同的强化学习代理用于游戏的各个决策方面,并在一组 10,000 局随机游戏中实现了 78.5%的胜率提升。
Nov, 2023
RLCard 是一个用于扑克类游戏强化学习研究的开源工具包,旨在将强化学习和非完全信息游戏联系起来,推动在多个代理、大状态和动作空间以及稀疏奖励等领域的强化学习研究。
Oct, 2019
提出了一种 MOBA 游戏 AI 学习范式,采用深度强化学习及新型学习技术,可训练玩家池多的游戏并解决了可扩展性问题,测试结果表明该 AI 在王者荣耀等游戏中已能击败顶尖电竞选手。
Nov, 2020
本文提出了一个新算法,能够有效地应用于大量状态空间问题中的多智能体强化学习,以寻找具有低复杂度的多代理贝尔曼 - 伊鲁德维度的零和马尔科夫博弈 Nash 平衡策略。
Jun, 2021
本文总结了基于 Collectible Card Game (CCG) Legends of Code and Magic (LOCM) 的五年 AI 竞赛,介绍了比赛规则、历史、参赛者的方法,以及组织 AI 竞赛的一些建议。
May, 2023
本文总结了第一次 NeurIPS 2021 NetHack Challenge 的主要论点,该挑战赛旨在使用强化学习或符号学习等方法开发一个程序或代理,与 NetHack 学习环境进行交互,以赢得这个迷宫探索游戏。结果表明,符号 AI 目前在 NetHack 中的表现远优于深度强化学习,并且没有代理成功通关游戏,NetHack 由此成为一个长期的 AI 研究基准。
Mar, 2022
本文中,我们提出了两种基于深度强化学习框架和分层动作空间的 AI 智能体 TStarBot1 和 TStarBot2,并评估它们在星际争霸 II 全场游戏中的表现,成功地战胜了从 1 至 10 级内置 AI 对手,标志着深度强化学习在星际争霸 II AI 研究领域取得了重要进展。
Sep, 2018