机器学习如何揭示概念的数学结构
文章介绍了学习体系如何获得和利用抽象概念结构的能力,并提供了一种最小体系结构的示例,展示了这些抽象概念结构在先前获得知识的应用中的操作有效性。
Oct, 2019
本文探讨了人类学习机制中的组合性问题,并扩展了先前针对自然语言的神经网络研究到数学推理领域。研究发现,神经网络不仅能够学习到训练数据中的结构关系,而且能够将这些知识用于指导复合意义的组合。
May, 2021
通过识别认知科学中计算推理的计算方法、数据驱动时代的操作挑战、社会影响和道德准则等方面,平衡潜在的乐观情绪,探索在更实证的视角下进行推理的可行性和可行性,以更多样化和丰富的方法解释研究结果。
Oct, 2022
人工智能领域的认知科学视角在构建人类或超人类水平的数学系统方面具有重要价值,通过借鉴认知科学的经典和持续研究方向,与人工智能研究人员和数学家的跨学科合作,可以推动数学人工智能系统的进一步发展。
Oct, 2023
大型语言模型,如GPT-4,在广泛的基于语言的任务中取得了显著的熟练度,这些任务中有些传统上与人类智能的标志相关联。这引发了关于我们能否将任何语言模型归属于语言或认知能力的程度的持续争议。本文是两篇相关论文的第一部分,旨在为哲学家提供关于语言模型的介绍,并对其与哲学、认知科学、人工智能和语言学领域中经典辩论的重要性进行主观调查。我们涵盖的主题包括语言的组成性、语言习得、语义能力、基础、世界模型和文化知识的传输。我们认为,语言模型的成功挑战了人们对人工神经网络的一些长期假设。然而,我们还强调了进一步的实证研究以更好地了解它们的内部机制的需要。这为第二部分的相关论文提供了基础,第二部分将探讨关于语言模型最新发展引发的新的实证方法和哲学问题。
Jan, 2024
深度学习在人工智能研究的各个领域取得了重大进展,对认知科学的哲学具有重要意义,通过克服旧的连接主义模型的局限性,深度神经网络在认知科学的哲学争论中取得了重大进展,并且与哲学和认知科学的跨学科合作有望解决深度神经网络比较评估方面的方法论挑战,哲学家在探索与深度学习和认知的基础问题相关的领域有很大潜力。
May, 2024
大语言模型的理解研究,重点是理解算法,通过层次结构设计、人类和大语言模型的研究,揭示相似性和差异性,该研究可用于跟踪人工智能在认知领域的进展。
Jun, 2024
本研究针对深度学习模型的可解释性不足问题,提出基于认知科学的新视角。通过借鉴认知科学的发展,本文阐明了机械可解释性(MI)的目标并提出了一个新的分类法,以促进对深度学习模型的理解。研究表明,将行为研究与内部表示和算法的理解相结合,可以推动人工智能领域的理论进步和实践应用。
Aug, 2024