人类水平的智能还是类动物的能力?
通过一系列的实验,我们评估了当前基于视觉的大型语言模型在直觉物理、因果推理和直观心理领域的表现。我们的研究结果表明,尽管这些模型在处理和解释视觉数据方面表现出显著的能力,但在这些领域仍然不如人类。这些模型对物理定律和因果关系有基本的理解,但缺乏更深入的洞察力 - 人类认知的一个关键方面。此外,在需要直觉心理理论的任务中,这些模型完全失败。我们的结果强调了将更强大的理解因果关系、物理动力学和社会认知机制整合到现代基于视觉的语言模型中的必要性,并指出了认知启发式评估标准的重要性。
Nov, 2023
构建和测试人类智能水平的机器是一项具有重要经济激励的科学大挑战,我们介绍了我们的方法,包括物理人形机器人系统、基于软件的控制系统、衡量人形机器人智能的性能指标 g + 和用于逐步提高该性能指标得分的进化算法,并报告了该系统的 g + 指标的当前和历史测量结果。
Jul, 2023
人工智能在几个关键方面仍然比人类智能有限,如在理解上下文、言外之意和微妙线索方面的能力。本文展望了可能用于缩小人类智能与机器智能差距的机器智能候选方法,重点讨论了当前人工智能技术的不足,以及层次规划和能量基、潜变量方法以及联合嵌入预测架构方法如何帮助弥合这一差距。
Aug, 2023
本文综述认知科学的进展,提出了人工智能领域需要实现的目标和面临的挑战,即建立支持解释和理解的世界因果模型,以及将学习基于物理和心理直觉理论,使用组合性和学习来学习以适应新的任务和情况
Apr, 2016
人工通用智能(AGI)是构建 “思考机器” 的愿景,与 “狭义人工智能” 方法形成鲜明对比。本研究指出了纯统计方法无法实现 AGI,同时确定了实现类似人类适应能力和自主学习所需的关键认知能力,并总结了阻碍 AGI 进展的社会技术因素。
Aug, 2023
人类有倾向在周围的物体中看到类似于 “人” 的特质。这种行为被称为拟人化,并且这种拟人化趋势也出现在机器学习中,其中声称在大型语言模型中感知到类似于人类智能的特质。本立场论文通过考虑专业激励、人类偏见和一般的方法论设置,讨论了当前对人工通用智能(AGI)的追求与将人类特质过度归因于大型语言模型之间的关系。通过几项实验,我们证明在潜在空间中发现可解释的人类模式并不足为奇。另外,考虑到媒体中对人工智能的普遍描绘,我们呼吁学术界在解释和交流人工智能研究结果时要格外小心,并且要对学术诚信原则有更高的意识。
Feb, 2024
本文综述了人类学习、推理和适应新领域的关键能力 —— 概念抽象和类比制定,以及通过符号方法、深度学习和概率编程归纳等多种途径构建具有这些能力的 AI 系统的优势和局限性,最后提出了设计挑战任务和评估指标的几点建议,以在此领域取得量化和可推广的进展。
Feb, 2021
本文讨论了人工智能专家误解模仿游戏,将 HL-level Intelligence 视作人工智能发展的目标,认为 Access 和 Ingest data 是 AGI 发展的当前瓶颈,因此应该重新审视图灵测试,通过对比探讨人工智能和人类数据收集能力之间的差异,探索当前 AGI 缺乏的特征,并在此框架内讨论 AGI 发展的未来。
Dec, 2022
该研究提出了一个用于评估社交智能的基准,引入了逆向推理和逆向规划这两个评估任务,通过基于递归贝叶斯推理的计算模型对人类行为模式进行解释,实验证明了人类在整体表现、零样本学习、一次推广和多模态适应性方面超越了最新的 GPT 模型,并显示出 LLMs 倾向于依赖模式识别来进行快速计算,对其是否拥有真正的人类级社交智能产生了质疑。
May, 2024