深度学习在数量认知方面的认知缺陷
本研究发现,DNN 并不具备通常的数数连通组件的能力,通过提出三种可学习的 ML 特性来解释 DNN 为什么可以解决 特定的计数问题,但不能普遍数数连通组件。
Jan, 2021
通过使用大规模 Transformer 架构的生成式人工智能模型,本研究调查了是否能可靠地命名简单视觉刺激中的物体数量或生成包含 1-10 范围内目标数量物体的图像。令人惊讶的是,所有考虑的基础模型都没有以人类的方式表现出来:即使在小数量下也会出现明显错误,响应的变异性通常没有按系统方式增加,错误的模式也随物体类别而变化。我们的研究结果表明,高级人工智能系统仍然缺乏支持直观理解数字的基本能力,这对人类的数字能力和数学发展至关重要。
Jan, 2024
本论文探讨在视觉领域中,使用最新的神经网络能否正确识别数量较大或较小的物品;研究结果表明,使用数值偏好的神经网络模型在数量辨别中表现最佳,但在转移实验中表现不佳。
Mar, 2023
本研究旨在使用 holistic cues 预测图像中显著对象的存在和数量,并提出了一个包含约 14K 个图像的显著目标数目预测数据集,并使用在线众包市场进行注释。使用端到端训练的卷积神经网络(CNN)模型,对于仅包含零个或一个显著对象的图像,我们实现了与人类性能相当的预测准确性。对于多个显著对象的图像,我们的模型也无需任何本地化过程即可提供显著优于随机的性能,此外,我们还提出了一种通过利用合成图像来改善 CNN 数目预测模型训练的方法。我们实验证明了 CNN 数目预测模型的准确性和通用性,并将其应用于显著目标检测和图像检索中。
Jul, 2016
我们通过使用全息减少表示(HRR)开发一种替代损失函数,研究了这种神经符号学习方法对于卷积神经网络(CNNs)和视觉转换器(ViTs)的子化能力的影响,观察到提出的 HRR 损失改善了子化泛化,但并未完全解决问题。
Dec, 2023
本文回顾了近年来关于深度学习在数学领域的研究,认为当前即使是最先进的深度学习模型在面对简单的数学和算术任务时也表现出较大局限性。
Mar, 2023
为了将关键的认知能力赋予机器智能,本文提出一个新的数据集,即机器数理感知 (MNS),其由采用 And-Or Graph (AOG) 语法模型自动生成的视觉算术问题组成,提出结合经典搜索算法和现代神经网络的方法,以更好地理解数字概念和关系运算。
Apr, 2020
本文研究深度神经网络在 “Look and Say” 题目上的表现并发现尽管在大规模数据(200 万数据)训练时准确度很高,但它们并没有展现出任何关于问题更深层次理解的迹象,这也从认知科学角度说明我们需要更好的抽象数学模型。
Sep, 2021
本论文利用 MNIST 数据集通过训练 counting convolutional neural network 来探究卷积神经网络中数字特征的表示学习,实现对于行人计数场景的初步探索。
May, 2015