计算机视觉中的人类感知
本文比较了人类视觉系统和深度神经网络(DNN)在图像退化方面的泛化能力,发现人类视觉系统更加耐受于图像处理,而当信号变弱时,人类和 DNN 的分类误差模式逐渐分离,这表明在视觉识别方面,人类和 DNN 之间仍存在显著差异。
Jun, 2017
本文回顾了当前深度神经网络在作为人类核心物体识别合适的行为模型方面存在的证据,并指出深度神经网络作为计算模型的质量是一个多维概念,需要在建模目标方面达成明确的理解与共识。本文通过分析大量的人类感知和深度神经网络核心物体识别能力的心理物理和计算机探究,得出深度神经网络作为科学工具的价值性,同时认为深度神经网络目前只是作为人类核心物体识别行为的有前途但尚不充分的计算模型。在此过程中,我们驳斥了一些关于深度神经网络在视觉科学中存在的神话。
May, 2023
本研究回顾了关于人类目标感知和深度神经网络模型在目标识别方面的相关工作,并探讨了这两个领域如何相互促进,提供了发展新实验任务和推动深度神经网络模型中的目标识别的基准的认知文献和实验任务。
Sep, 2021
该论文的研究内容主要涵盖了人工智能、深度神经网络、可解释 AI、视知觉技术以及深度模型的调试等领域。论文提出的 Perception Visualization 技术通过可视化深度模型对于输入图像的感知来解释模型预测结果,研究发现人类能够更好地理解和预测系统决策,从而使深度模型的调试和部署更加可靠。
Apr, 2022
深度神经网络(DNN)在图像分类和物体识别任务中的表现令人印象深刻,然而它们对于颜色知觉等人类视觉基本方面的捕捉程度仍不清楚。本研究使用新型实验评估了 DNN 颜色嵌入的感知一致性,并通过在线调查评估了这些算法如何预测人类的颜色相似性判断。我们发现最先进的 DNN 架构,包括卷积神经网络和视觉变换器,所提供的颜色相似性判断与人类得出的(i)具有受控颜色属性的图像、(ii)从在线搜索生成的图像以及(iii)来自经典 CIFAR-10 数据集的现实世界图像存在显著差异。与我们检查的所有 DNN 相比,我们的基于小波分解的可解释和基于认知的颜色知觉模型提供更一致的颜色嵌入结果,更好地预测了人类的颜色判断。这些结果适用于在使用类似 DNN 体系结构进行训练的高级视觉任务(例如图像分类与图像分割)以及检查给定 DNN 体系结构中不同层的颜色嵌入时。这些发现在分析机器学习算法的感知表示和改进其作为人类视觉的认知合理模型的努力中创新了新的领域。机器学习、人类感知和具身认知的影响正在讨论中。
Sep, 2023
本研究研究了深度神经网络在计算机视觉领域上的发展,并提出了 “欺骗图像” 的概念,在模型认为是熟悉对象的情况下生成了一系列对人类难以识别的图像,揭示了计算机视觉与人类视觉之间的有趣差异。
Dec, 2014
通过对三种著名的深度卷积神经网络在十二种不同的图像失真下的实验对比,研究表明,与这三种人工智能算法相比,人类视觉系统在几乎所有的测试图像处理中都更加鲁棒,其误差模式渐行渐远。本文还证明了,利用失真图像直接训练的深度学习神经网络在恰当的测试条件下,表现优于人类。然而,当被分别用于测试不同类型的失真图像时,它们的泛化能力极差,无法适应噪声分布的变化,这成为深度学习视觉系统所面临的关键挑战,可用一种终身机器学习的方法进行系统化解决。
Aug, 2018
在图像质量失真的影响下,深度神经网络的表现远不及人类,但两者的错误率存在着较少的相关性,表明图像的内部表现在网络和人类眼中存在差异。这些与人类视觉表现的比较有助于指导未来更具鲁棒性的深度神经网络的发展。
May, 2017
研究发现,尽管深度神经网络(DNNs)的成功主要是由于计算规模,而不是基于生物智能的洞见,但是随着精度的提高,DNNs 与人类视觉策略的一致性逐渐降低,但是神经谐振器的出现可以使 DNNs 与人类的视觉策略相一致并提高分类精度。
Nov, 2022
使用深度神经网络进行物体分类,可以占人类相似性判断的重要部分,但不能捕捉到人类表现中的一些关键性质。我们开发了一种方法,将深层特征与人类相似性判断对齐,以获取可用于扩展心理实验范围的图像表示。
Aug, 2016