- SwarmBrain: 基于大型语言模型的即时战略游戏《星际争霸 II》的具身智能体
研究使用大语言模型(LLM)来执行《星际争霸 II》游戏中的实时战略任务的有效性,介绍了 SwarmBrain,利用 LLM 在游戏环境中进行实时战略执行的体系代理,包括高级战略的 Overmind Intelligence Matrix - 大型语言模型在星际争霸 II 中测试和一种摘要方法的链式
通过开发文本化的 StratCraft II 环境,利用大型语言模型代理实现游戏性能评估,研究表明大型语言模型代理在应对 StarCraft II 场景中具备相关知识和复杂规划能力,性能接近于玩了八年 StarCraft II 的普通玩家, - IJCAICODEX:一种基于聚类的可解释强化学习方法
通过语义聚类的方法,该研究提出了对强化学习(RL)代理行为进行总结的方法 CODEX,以解释代理行为并建立用户信任。实验结果表明,CODEX 方法能够保留时间和实体信息,构建代理行为的总结。此外,对游戏环境中的离散 + 连续游戏状态潜在表示 - 透過忠實引出的解釋性策略抽取在強化學習中
通过引入忠实度衡量机制并将其与强化学习反馈相结合,FIPE 方法在解释性和一致性方面优于现有方法,实验证明其在复杂控制环境中的性能和可理解性均较好。
- AlphaStar Unplugged:大规模离线强化学习
这篇论文在 StarCraft II 这个具有挑战性的强化学习环境中,利用大量的离线数据集和机器学习方法,建立了一个新的基准 AlphaStar Unplugged,提出了离线强化学习的前沿技术,并且取得了 90% 的胜率。
- 关于《星际争霸 Ⅱ》全游戏的高效强化学习研究
本研究通过使用一系列强化学习技术,包括层次化体系结构、课程转移学习和战斗模型等方法,在 StarCraft II 游戏上进行了训练,并获得了高胜率。我们还将我们的方法与 mini-AlphaStar 进行比较,证明了该方法的有效性。
- 利用赫布学习预测星际争霸 II 中集群的演变
本文提出了一种混合 AI 模型,将无监督学习和自监督学习相结合,以预测 StarCraft II 游戏中集群的演变,其中,无监督的 Hebbian 学习方法被应用于产生可变数量的集群,并且在预测任务中,使用基于长短期记忆的预测模块来预测集群 - SC2EGSet:StarCraftII 电子竞技回放和游戏状态数据集
这篇文章介绍了一个开放的数据集,它包括了 StarCraft II 电竞比赛中的重播数据,在使用自己开发的工具处理这些数据后,可以在统计学和机器学习建模任务方面进行使用,这对于人工智能、机器学习、心理学、人机交互以及体育方面的研究都具有一定 - S2RL:在深度多智体强化学习中,我们真的需要感知所有状态吗?
提出一种基于稀疏注意力机制的多智能体强化学习框架(S2RL),通过自注意力机制和稀疏注意力机制分别估算局部效用函数,再结合到中央评论家中的标准联合值函数和辅助联合值函数中,为各种方法提供了通用的升级模块,可以显著提高 StarCraft I - MM通过自动课程学习从单个人类演示中学习指导多个异构角色在星际争霸 II 中
本文利用自动课程学习的方法,通过单一的人类示范将多个异质演员集中命令的命令和控制任务的整体难度进行了调整,在 StarCraft II 中模拟的真实军事场景中,训练出的智能体的表现超过了当下最先进的深度强化学习和匹配了人类专家的表现。
- FCMNet: 多智能体系统团队级协作的全通信内存网络
该研究基于强化学习,提出了 FCMNet 通信框架,通过方向性递归神经网络的隐藏状态作为通信信息,在具备全局通信但不可靠的情况下,实现了一个既能学习多跳通信协议,又能让代理团队制定决策的共同分散式智策略。FCMNet 具有较强的鲁棒性,在一 - ICML利用 Transformer 模型进行 StarCraft 宏观管理预测
本文介绍了基于 transformers 的神经架构在 StarCraft II 游戏的 macromanagement 中的应用,通过 MSC 数据集的实验证明了该架构是优秀的,尤其在 transfer learning 方面表现优异。
- ICMLSCC:高效深度强化学习游戏代理掌握星际争霸 II
本文介绍了基于深度强化学习的智能体 StarCraft Commander (SCC),通过优化效率和以少量复杂度达到媲美 GM 级水平及击败职业玩家的成果,为进一步在复杂即时策略游戏方向探究提供了可能与展望。该成果对应用深度学习模型进行模 - RODE:学习角色以分解多智能体任务
通过聚类行动效果、学习角色选择器和角色策略,使角色发现更加容易并提高学习效率和策略泛化能力,该方法在 StarCraft II 多智能体微观管理基准测试的 14 个场景中表现优秀,实现了快速迁移至三倍数量的代理。
- QPLEX: 双工 Dueling 多智能体 Q 学习
本文介绍了一种称为 duPLEX Dueling 多智能体 Q 学习的新型 MARL 方法,该方法利用 duplex dueling 网络结构对联合价值函数进行分解,以实现高效的价值函数学习,应用于 StarCraft II 微管理任务的经 - ICML一种基于叙事的奖励塑造方法,使用基于语境的自然语言指令
通过自然语言引导,我们对深度强化学习技术进行了改进,实现了对 StarCraft II 等任务的有效训练,并与传统的奖励塑形方法相比,取得了更好的性能表现。
- ICML深度协同图
本文介绍了用于协作式多智能体强化学习的深度协调图(DCG)。DCG 通过协调图将所有智能体的联合价值函数因子化为智能体对之间的收益,从而在表征能力和泛化能力之间取得了灵活的折衷,解决了多智能体系统面临的相对过度泛化问题,在 StarCraf - AlphaStar: 一种进化计算的视角
本文主要通过使用演化计算的视角对 AlphaStar 进行分析并阐述了它的 Lamarckian 演化、竞争性共进化和质量多样化等方面,旨在为广大的演化计算研究者介绍近期开发的最重要的人工智能系统之一。
- AAAI星际争霸全程游戏的强化学习
本论文研究了适用于 StarCraft II 游戏的分层强化学习方法,其中包括宏动作、双层分层结构以及课程转移学习算法,取得了较好的游戏成绩并证明了其强泛化性能。
- TStarBots: 在 StarCraft II 全游戏中击败作弊级内置 AI
本文中,我们提出了两种基于深度强化学习框架和分层动作空间的 AI 智能体 TStarBot1 和 TStarBot2,并评估它们在星际争霸 II 全场游戏中的表现,成功地战胜了从 1 至 10 级内置 AI 对手,标志着深度强化学习在星际争