利用大型语言模型进行开放式战争游戏
战争游戏在军事战略发展和国家对威胁或攻击的反应中有着悠久的历史。人工智能的出现在决策制定和军事效力提升方面承诺着更好的结果。然而,关于人工智能系统,特别是大型语言模型与人类的行为差异仍存在争议。为此,我们使用了一个涉及 107 位国家安全专家人类参与者的战争游戏实验,旨在研究虚构的中美危机升级情景中的人类参与者与模拟大型语言模型回应之间的比较。我们发现,模拟大型语言模型与人类回应之间存在显著的定量和定性差异,这提醒决策制定者在授权自主权或遵循基于人工智能的策略建议之前要谨慎。
Mar, 2024
本文介绍了在技术驱动的转型时代,加强对人工智能在决策支持军事模拟中的应用的投资的重要性,通过推进人工智能系统和人类判断的结合来提高全域意识、改善决策周期的速度和质量、提供新型行动建议以及更迅速地应对对手行动;同时提出了通过深度强化学习来开发智能代理行为的前景与挑战,进一步讨论了通过多模型方法和维度不变观察抽象来开发层次强化学习框架的研究。
Feb, 2024
通过使用人工智能和大型语言模型,在历史的国际冲突中,包括第一次世界大战(WWI)、第二次世界大战(WWII)和中国的战国时期(WSP),我们提出了一种名为 WarAgent 的多智能体人工智能系统,模拟参与国家、它们的决策以及结果。通过评估模拟的效果,我们研究了先进人工智能系统在研究复杂的集体人类行为(如国际冲突)方面的进展和限制。我们的研究结果提供了以数据驱动和人工智能增强的洞察力,重新定义我们解决冲突和维持和平策略的方法。这些发现的意义超出了历史分析,为使用人工智能理解人类历史并可能预防未来的国际冲突提供了蓝图。
Nov, 2023
这篇论文将较大的语言模型应用于智能决策领域,构建了一个以大语言模型为核心的代理体系结构,并通过自然语言的交互发布和执行决策命令,进一步进行仿真验证。通过游戏对抗模拟实验,发现大语言模型的智能决策能力明显优于常用的强化学习人工智能和规则人工智能,并且智能、可理解性和泛化性都更好。通过实验还发现,大语言模型的智能与提示密切相关。这项工作将大语言模型从人机交互扩展到智能决策领域,对智能决策的发展具有重要的参考价值和意义。
Dec, 2023
本研究旨在研究博弈论和生成人工智能的交叉领域,聚焦于大型语言模型在找到混合策略 Nash 均衡的游戏中的能力,发现了大型语言模型在运行代码和提供特定提示的情况下性能显著提高,但也揭示了在难以推断游戏的随机化策略时,大型语言模型的限制性。该论文致力于为博弈论和生成人工智能的交叉领域增添研究成果,同时提供有关大型语言模型优势和劣势的有价值洞察,并强调了进一步研究的必要性以克服大型语言模型的局限,尤其是在处理稍复杂情境时,以发挥其全部潜力。
Jun, 2024
通过对多个人工智能自主代理在模拟战争游戏中的行为进行研究,我们发现大型语言模型存在升级行动和难以预测升级模式的问题,这可能导致更大的冲突和核武器的使用,因此在部署自主语言模型代理进行战略决策之前需要进一步审查和谨慎考虑。
Jan, 2024
基于近年来大型语言模型 (LLMs) 在游戏设计、开发和研究中的潜力,本文针对与游戏相关的 LLM 的最新研究进行了初步调研,总结了 2022 年至 2024 年初间与 LLMs 和视频游戏相关的 76 篇论文,主要关注游戏人工智能、游戏开发、叙事以及游戏研究和评论,为未来的研究和评论奠定了基础。
Mar, 2024
利用 LLMs 在复杂的电脑游戏环境中赋予游戏智能体人类般的决策能力,以推进人工智能 (AGI) 的发展,并提供了 LLM 基础的游戏智能体的综述,包括感知、记忆、思考、角色扮演、行动和学习的六个关键组成部分,调研了六种游戏类型的现有代表性 LLM 基础游戏智能体,并展望了未来的研究和发展方向。
Apr, 2024