对卷积神经网络中缺失图像信息进行人类直觉建模
通过合成实验,研究深度学习算法从图像中推断简单的视觉概念,如对称性,作者设计了“啊哈挑战”以促进对Gestalt风格机器智能的研究。实验表明,相比于深度卷积神经网络,人类能够很快推断出语义概念,但需要更少的示例才能做到这一点。
Sep, 2017
提出了一种基于Trial-by-Trial误差一致性的定量分析方法,可以区分决策者(大脑或算法)的处理策略,在对象识别方面,人类和机器视觉之间仍存在巨大的差异。
Jun, 2020
本文介绍了深度神经网络的可解释性研究及其方法,指出目前的方法存在的局限和风险,并提出了以可证伪性为核心的新的研究框架,目的是为了产生更具意义和可靠的可解释性方法。
Oct, 2020
本文研究了DNN模型在场景感知和对象识别中是否存在类似人类感知的Gestalt现象,并发现不同类型的DNN模型在处理不同的刺激时,只在最后一个处理层表现出一定的Gestalt效应,但这种效应与人类感知的Gestalt效应不同,从而表明DNN学习到的感知属性与人类有根本的差异。
Mar, 2022
通过一系列的实验,我们评估了当前基于视觉的大型语言模型在直觉物理、因果推理和直观心理领域的表现。我们的研究结果表明,尽管这些模型在处理和解释视觉数据方面表现出显著的能力,但在这些领域仍然不如人类。这些模型对物理定律和因果关系有基本的理解,但缺乏更深入的洞察力-人类认知的一个关键方面。此外,在需要直觉心理理论的任务中,这些模型完全失败。我们的结果强调了将更强大的理解因果关系、物理动力学和社会认知机制整合到现代基于视觉的语言模型中的必要性,并指出了认知启发式评估标准的重要性。
Nov, 2023
人类对抽象结构的识别和操作能力十分出色,尤其在几何领域中显得更为明显。最近的认知科学研究表明,神经网络并没有共享这种能力,得出结论认为人类的几何能力来自人类心智表示中的离散符号结构。然而,人工智能领域的进展表明,经过标准架构的扩展模型规模和训练数据量后,神经网络开始表现出更类似人类推理的能力。在本研究中,我们重新审视认知科学对几何视觉处理的实证结果,并确定了几何视觉处理中的三个关键偏见:对复杂性、规律性和部分与关系的感知敏感性。我们测试了从文献中探索这些偏见的任务,并发现在人工智能中使用的大型预训练神经网络模型表现出更类似人类的抽象几何处理能力。
Feb, 2024
一项关于深度神经网络与人类视觉的研究,介绍了名为MindSet: Vision的工具箱,包含一系列图像数据集和相关脚本,用于测试DNNs在30个心理发现方面,并提供了代码以重新生成这些数据集,并提供了测试DNNs的代码,使用了三种不同的方法进行识别和分类。
Apr, 2024
该研究提出了双重思维框架,通过引入对抗性数据集证明了人类视觉中双重思维的存在,同时研究了深度学习模型的定性行为,并通过使用实例分割模型来解决使用分类模型作为人类视觉计算模型的主要批评。该研究强调了形状在人类视觉中识别实例的重要性,并显示深度学习模型缺乏对子结构的理解,表现为与子组件的位置和数量相关的错误。此外,模型和人类直觉处理所犯错误的相似性表明模型仅涉及人类视觉中的直觉思维。
Jun, 2024
该研究解决了当前人工智能可解释性方法对特定模型架构的强依赖问题。提出了一种新的受人类视觉启发的可解释性方法FovEx,通过生物学启发的扰动与基于梯度的视觉探索相结合,以高效地定位模型的重要区域。研究表明,FovEx的解释图与人类注视模式一致性显著提高,展示了其在各种架构中的卓越性能和实际应用潜力。
Aug, 2024
本研究探讨了卷积神经网络在对象识别中是否能模仿人类的完形闭合能力,填补了先前研究中对该机制支持的缺口。我们提出了系统化框架及数据集,进行实验以验证不同CNN模型的闭合效应。研究发现,VGG16和DenseNet-121模型能够展现闭合效应,提升了对神经网络理解的透明度与比较性。
Aug, 2024