ITCMA:一种基于计算意识结构的生成式代理
研究了大型语言模型与人类元认知在国际教练联合会(ICF)模拟考试中的元认知能力,结果发现大型语言模型在几个元认知指标上表现优于人类,尤其是在减少自负方面,但无论是语言模型还是人类在模糊场景中都缺乏适应性,倾向于遵循预先定义的决策框架。研究结果对开发辅助掌握教练能力的人工智能模拟器以及发展朝着更自主和直观的人工智能系统的元认知模块具有重要意义。
May, 2024
该研究定义了一种意识图灵机,用于研究意识的理论计算机科学方法。该意识图灵机为简单机器,能够有效地使用各种拥有所需知识、能力和时间的处理器来处理各种问题,并提供人工智能创造的新思路。
Mar, 2023
我们提出了一种全面认知的大型语言模型代理,CoCo-Agent,通过全面环境感知和条件化行动预测的两种新方法系统地提高了图形用户界面自动化性能。我们的代理在 AITW 和 META-GUI 基准测试中取得了最新的最佳表现,展示了在现实场景中的巨大潜力。
Feb, 2024
本研究展示了一种使用 RCI 方法来自然语言执行计算机任务的代理方法,此方法能够显著提高计算机任务的自动化表现,优于现有的自然语言处理方法,并在自然语言推理任务中表现出较好的推理能力。
Mar, 2023
我们提出了一种新型基础设施,名为 MindAgent,用于评估游戏交互中的规划和协调能力,并引入了新的游戏场景和相关基准,以评估多智能体协作效率。我们使用新的自动度量 CoS 进行全面评估。我们希望我们对大型语言语料库学习的 LLMs 以及用于通用调度和协调的新基础设施的发现能够揭示如何获取这些技能的一些见解。
Sep, 2023
文中介绍了一种名为 CoAT 的优化方法,利用模拟训练数据来帮助语言模型更好的利用其背景知识。使用 CoAT 训练的 In-context learners 性能表现良好,达到了在多任务训练中更大规模模型的性能水平。
May, 2023
评估了基于大型语言模型的多智能体协作文本游戏中的理论推理任务,并与多智能体强化学习和基于计划的基准进行比较。研究发现基于大型语言模型的智能体表现出紧密合作行为和高级理论推理能力,但也存在在管理长期视野环境和任务状态幻觉方面的规划优化限制。通过利用显式信念状态表示来减轻这些问题,改善了基于大型语言模型的智能体的任务表现和理论推理准确性。
Oct, 2023
利用符号人工智能的代理设计历史,我们提出了一种新的认知语言代理的蓝图,即 Cognitive Architectures for Language Agents (CoALA) 框架,这个框架将大型语言模型与外部资源或内部控制流结合起来,以实现基于语言模型的推理、概念化、学习和决策。通过 CoALA 框架,我们强调了目前语言代理的不足,并提出了未来发展更强大的语言代理的具体方向。
Sep, 2023
通过历史数据集训练的 CHATATC 大型语言模型在非安全关键的交通流量管理环境中进行了研究,测试了其查询和回应能力,并详细介绍了用于与 CHATATC 对话代理进行交互和协作的图形用户界面的设计。
Feb, 2024