深度神经网络中的视觉数字区分评估
本文研究计算机视觉、深度神经网络(DNN)、人类视觉感知和无体系结构视觉学习之间的联系,并发现 DNN 计算可用于估计感知损失,并与有趣的理论观点一致,即人类感知的特性是视觉学习无体系结构的结果。
Jan, 2017
本文考察了深度学习在学习数字及subitizing任务上的表现,发现基于样例的深度学习模型无法抽象数字的本质特征;作者构建了一种能够进行subitizing的循环神经网络,探究使用人类洞见补充纯深度学习的方法。这一研究意义重大,因为视觉数量意识代表了人类智力的最低水平。
Feb, 2018
运用多任务学习方法使深度神经网络对图片失真有着较好的鲁棒性,研究结果表明,从灵长类的视觉皮层中提取归纳偏见,使神经网络更类似于人类视觉系统,提高了其在面对失真问题时的效率。
Jul, 2021
本文回顾了近年来关于深度学习在数学领域的研究,认为当前即使是最先进的深度学习模型在面对简单的数学和算术任务时也表现出较大局限性。
Mar, 2023
本文回顾了当前深度神经网络在作为人类核心物体识别合适的行为模型方面存在的证据,并指出深度神经网络作为计算模型的质量是一个多维概念,需要在建模目标方面达成明确的理解与共识。本文通过分析大量的人类感知和深度神经网络核心物体识别能力的心理物理和计算机探究,得出深度神经网络作为科学工具的价值性,同时认为深度神经网络目前只是作为人类核心物体识别行为的有前途但尚不充分的计算模型。在此过程中,我们驳斥了一些关于深度神经网络在视觉科学中存在的神话。
May, 2023
通过使用大规模Transformer架构的生成式人工智能模型,本研究调查了是否能可靠地命名简单视觉刺激中的物体数量或生成包含1-10范围内目标数量物体的图像。令人惊讶的是,所有考虑的基础模型都没有以人类的方式表现出来:即使在小数量下也会出现明显错误,响应的变异性通常没有按系统方式增加,错误的模式也随物体类别而变化。我们的研究结果表明,高级人工智能系统仍然缺乏支持直观理解数字的基本能力,这对人类的数字能力和数学发展至关重要。
Jan, 2024
人类对抽象结构的识别和操作能力十分出色,尤其在几何领域中显得更为明显。最近的认知科学研究表明,神经网络并没有共享这种能力,得出结论认为人类的几何能力来自人类心智表示中的离散符号结构。然而,人工智能领域的进展表明,经过标准架构的扩展模型规模和训练数据量后,神经网络开始表现出更类似人类推理的能力。在本研究中,我们重新审视认知科学对几何视觉处理的实证结果,并确定了几何视觉处理中的三个关键偏见:对复杂性、规律性和部分与关系的感知敏感性。我们测试了从文献中探索这些偏见的任务,并发现在人工智能中使用的大型预训练神经网络模型表现出更类似人类的抽象几何处理能力。
Feb, 2024
本研究探讨对比学习(CL)在抽象实体应用中的潜力,尤其是自然数这一半抽象概念。研究表明,CL在处理训练和测试分布不同时,比监督学习(SL)具有更强的鲁棒性和更好的错误性能。通过实验,可以高精度推测离散数量,显示了CL在抽象概念学习中的实际应用价值。
Aug, 2024
本文探讨了对比学习在抽象概念(如自然数)中的应用,填补了该领域的研究空白。通过引入适当的守恒原则,实验证明对比学习能够在自然数的计数任务中获得高准确度,特别是在训练和测试分布不同的情况下表现出更强的鲁棒性。此研究为未来在更抽象的任务中运用对比学习提供了新的视角和潜力。
Aug, 2024
本研究探讨了人类在视觉场景中感知和近似表示物体数量的能力,并提出了一种新颖的计算机视觉算法管道,用于分析包含真实图像的数据集。研究发现,自然视觉场景中不同数量出现的频率遵循幂律分布,并且数量感知与诸如累积面积等连续大小密切相关,这揭示了数量判断受非数量线索影响的潜在原因。
Sep, 2024