多模态和多主体系统遇上合理性:一项调查
本研究提出了一种通用模型,旨在设计具有社交智能的个体理性学习者的 AI,以实现其与其他类型的代理人的有效合作。该研究重点讨论了合理性、后悔和泛饱和效率对于实现社交智能的影响,并探讨了构建稳健的系统的重要性。
May, 2023
人工智能中理性的概念至关重要,但没有一个统一的定义来界定何为理性代理。本文调查了人工智能中的理性与非理性,并阐述了这一领域的问题。研究经济学、哲学和心理学等其他领域对理性的理解对其在人工智能中的观念产生了影响。从人工智能代理的行为出发,我们考虑在某些情景中可能最优的非理性行为。已经有一些方法用来处理非理性代理的辨识和互动,但在这个领域的研究仍然有限。目前已经为其他目的而开发的方法,如对抗性情景,可以适应与人工智能代理的互动。我们进一步讨论了人工智能代理与人类代理之间的相互作用,以及理性在这种互动中所扮演的角色;这个领域还存在许多问题,涉及到人类和人工智能代理潜在的非理性行为。
Nov, 2023
利用大型语言模型(LLMs)在多项任务中取得的显著表现带来了在实际环境中利用它们的许多机遇和挑战。为了实现 LLMs 的实际采用,多智能体系统在使用现有专有数据和模型应对复杂现实任务的企业平台的更大背景下,具有增强、整合和协调 LLMs 的巨大潜力。本文提出了 “推理能力” 概念作为统一准则,以实现在优化过程中整合约束并建立系统内不同组件之间的联系,从而实现更全面、综合的评估方法。我们提出了推理能力的正式定义,并说明其在识别系统每个组件的限制方面的实用性。然后,我们讨论了如何通过自反思的过程来解决推理中的缺陷,并增强整个系统的一致性,其中利用人的反馈来缓解推理不足问题。
Feb, 2024
使用 LLMs 作为决策 “代理人” 引起了越来越多的兴趣,但评估这种代理人的经济合理性仍然是一个关键问题。本文通过调查经济理论、提出基准分布和进行大规模实证实验,对 LLMs 的表现进行定量评估,揭示了当前技术水平以及模型大小对模型表现的影响。
Feb, 2024
通过将有限理性概念与信息论观点相结合,将其融入博弈论框架中以预测自己及其它机器人或人类邻近代理的行为以及在其计算限制下采取行动,模拟与实际实验都证明这种方法可以帮助机器人推理其他代理的不同智能水平并计算出合理的策略。
Oct, 2022
我们提出了一个名为 $ extit {M}^3$ 框架的插件,用于提高多模态代理在多步推理中的模型选择和鲁棒性,同时创建了一个新的数据集 MS-GQA,用于研究多模态代理中的模型选择挑战,并通过实验证明我们的框架能够动态地选择模型,考虑用户输入和子任务之间的依赖关系,从而增强整体推理过程的鲁棒性。
Oct, 2023
文章分析了 2007-2022 年间自然语言处理领域合理化 (Rationalization) 技术的发展现状和存在的问题,提出了一种新的可解释人工智能技术领域 Rational AI (RAI) 并讨论未来的研究方向和挑战。
Jan, 2023