- 关系瓶颈作为高效抽象的归纳偏好
认知科学的一个关键挑战是解释如何从有限经验中获得抽象概念,本文讨论了一种最近出现的观点,该观点提出了一个称为关系瓶颈的归纳偏置,通过利用这种方法在数据高效的方式下诱导抽象,强调其作为人类思维和大脑中抽象概念获取的候选模型的潜力。
- 自然语言处理中的表征操作化
本文提出了一个用于评估神经 NLP 模型成分表示性质的框架,并使用探查分类器进行具体操作,从而为科学哲学家和 NLP 从业人员提供了一个测试性的场所来评估关于表示性质的说法,并提供了开展实证研究的新途径。
- OCAtari: 以物体为中心的 Atari 2600 强化学习环境
本文介绍了 OCAtari 这个环境,它提供了针对 Atart 游戏的以物体为中心的状态表示,可以用于深度强化学习方法的评估,允许我们改变和创建特定甚至是新颖的情境来进行 RAM 状态操作。
- 大型语言模型是半参数强化学习代理
提出一种新颖的可进化的 LLM(Large Language Model)智能体框架,称为 REMEMBERER,并将 LLM 配备了长期记忆,以便在不同的任务目标中利用过去的经验,这胜过具有固定示例或配备瞬态工作内存的 LLM 智能体。通 - 谈判推理:如何可证地解决相对过度概括问题
本文提出了一种新的协商推理框架和实例化算法 Stein 变分协商推理 (SVNR),其使用 Stein 变分梯度下降来导出一种协商政策,以便在最大熵策略迭代下在多智能体强化学习中避免 RO 。对许多 RO 挑战环境的数值实验证明了 SVNR - 通过想象历史推断未来
利用蒙特卡罗算法,从漫画书单幅图像中推断出智能体历史和未来事件,并在多个领域中与人类直觉相匹配,大幅提高样本效率。
- 降维后的人类分类的理性模型
提出了一种层次混合概率主成分的理性分类模型,可以同时学习类别表示和经济有效的特征集,捕捉人类分类中的维度偏差并支持零样本学习,通过模拟和行为实验进行了验证。
- 神经网络人工智能中符号的角色:并非你所想的!
提出符号不仅在智能体之间用于外部通信,还可以通过一种自我交流形式在智能体内部用于帮助思考,探讨基于符号和概念的不同神经过程和推理方式,论文为未来的智能系统提供了一种新颖的神经符号假说和可行的架构设计。
- ICLRFLAN-T5 中的语义特征验证
本研究使用大型语言模型评估其在生成语义特征规范中的潜力,结果表明机器验证的规范能够捕捉到超出人工规范表达的概念结构,并更好地解释异类物品之间的语义相似性,这些结果提示 LLMs 可以极大地增强传统的语义特征验证方法,并对我们理解人类和机器的 - 探究大型视觉语言模型的概念理解
本文介绍了一种新的框架,用于探究和提升视觉语言模型的关系、组合和上下文理解。我们提出了一个基准数据集来检测内容理解的三个方面。我们实验了 5 种流行的模型,并发现它们大多数难以展示出概念理解。然而,我们发现交叉注意力可以帮助学习概念理解,并 - ChatGPT 在语言使用上是否与人类相似?
通过 12 个预注册的实验,我们发现像 ChatGPT 这样的运用大型语言模型的聊天机器人能够在很大程度上模仿人类语言处理,但是他们在一些方面与人类处理方式存在差异,并且可能通过 Transformer 架构来解释这些差异。
- 交流中符号出现的模型:概念回顾与避免局部最小值的指南
该研究介绍了计算机模拟在语言演化、认知科学、机器学习、机器人等领域的应用,提出了几种代表性模型的论点和已知结论。研究发现一些假设和方法限制了模型的成功,认为应重视身体和环境对智能体的影响,并以此为基础,提出了将符号系统建立在行动、知觉以及抽 - 反思性人工智能
本文旨在探讨反思式 AI 的概念,并提出了一种基于反思概念的 AI 代理架构,以及相关的前行方向。
- 语言认知与语言计算 —— 人类和机器的语言理解
语言理解是认知科学和计算机科学领域的关键科学问题。本文比较了认知科学和计算机科学在语言理解方面的不同研究问题和方法,并探讨如何将两个领域的洞见结合起来,为构建智能语言模型和研究语言认知机制提供新的启示和展望。
- 认知计算是什么?架构及最新发展
本研究在分析认知计算 (COC) 的文献基础上,提出了 COC 的体系结构,并讨论了在 Von-Neuman、神经形态工程和量子计算等三种计算范式下的应用及未来方向。
- 机器直觉:揭示 GPT-3.5 中类似人类直觉的决策制定
本研究揭示了大型语言模型 (LLMs) 在某些情况下表现出具有人类直觉的行为,包括许多认知错误,并且通过使用 GPT-3.5 等最新技术的模型及进行人类直觉决策的试探研究证明了这一点,并探究了几种方法来测试 GPT-3.5 的倾向于类似直觉 - 关于奖励推断对错误人类模型的敏感性
从人类行为推断奖励函数是实现价值对齐的核心,然而需要人类行为的准确模型,我们在理论和实证研究中发现行为可能出现对抗性商业偏差,同时也能够识别出在合理假设下的奖励推断误差线性受人类模型误差影响的影响范围。
- 面向人类认知水平的反事实解释实验设计(XAI)
使用 Bloom's 分类法作为用户的认知能力测量模型,在讲解生成的过程中采用反事实解释为媒介,结合用户反馈,验证讲解在每个认知层次上的理解水平,并据此改进讲解的生成方法。
- 语言表征模型是否能够思考赌注?
通过一系列实验,探究基于 Transformer 的语言表示模型的决策能力,发现这些模型只有在进行了相同结构的押注问题精调后才能表现出更好的表现,并在选择具有非负期望收益的结果时更合理。
- 非公理术语逻辑:认知符号推理的计算理论
本文提出了非公理术语逻辑 (NATL) 作为人类符号推理在人工智能领域的理论计算框架,并将其定位在逻辑学的发展历程和相关文献中。NATL 结合了阿里斯托德的术语逻辑和现代分布式表示或嵌入的语义系统。该文未进行量化评估,但提供了使用 NATL