卷积神经网络的智能程度如何?
本文研究了 DNN 模型在场景感知和对象识别中是否存在类似人类感知的 Gestalt 现象,并发现不同类型的 DNN 模型在处理不同的刺激时,只在最后一个处理层表现出一定的 Gestalt 效应,但这种效应与人类感知的 Gestalt 效应不同,从而表明 DNN 学习到的感知属性与人类有根本的差异。
Mar, 2022
该论文提出了一种带有附加概念层的 CNN 架构的引导学习方法,用于学习视觉特征和单词短语之间的关联,并通过优化预测准确性和特征表示的语义来学习与人类感知一致的概念,实验结果表明,所提出的模型可以在不牺牲准确性的情况下学习一致于人类感知的概念,并可将这些学习到的概念转移到具有相似概念的新对象类别中。
Jan, 2021
研究了深度卷积神经网络在视角变化下物体识别任务中的表现,发现在视角变化较小时,浅层网络可以优于深层网络和人类表现。但是,当面临较大的视角变化时,需要更深的层次来匹配人类表现。最深的 18 层卷积神经网络在最高变化水平下优于人类表现,使用了最类人的表征。
Aug, 2015
本篇论文研究了两种最近用于深度学习卷积神经网络中的人工智能算法,旨在探索这些算法作为计算创造力研究工具的潜在价值,分析这两个算法与人类认知科学创造力理论的关系,并对这两个算法的新颖性和美学质量进行了表征。
Oct, 2016
本文探究了卷积神经网络 CNN 中通过对输入进行概念识别达到决策的关系,通过考察场景识别 CNN 对 ADE20k 数据集的训练结果,找到并评分给定输入概念的最小分布式表示强度,证实了概念识别对 CNN 决策具有影响力,经常出现在少数场景中的理解程度高的概念表明了正确决策,但认识到许多场景中共同的概念可能会误导 CNN。
Nov, 2017
本文研究计算机视觉、深度神经网络(DNN)、人类视觉感知和无体系结构视觉学习之间的联系,并发现 DNN 计算可用于估计感知损失,并与有趣的理论观点一致,即人类感知的特性是视觉学习无体系结构的结果。
Jan, 2017
该论文的研究内容主要涵盖了人工智能、深度神经网络、可解释 AI、视知觉技术以及深度模型的调试等领域。论文提出的 Perception Visualization 技术通过可视化深度模型对于输入图像的感知来解释模型预测结果,研究发现人类能够更好地理解和预测系统决策,从而使深度模型的调试和部署更加可靠。
Apr, 2022
该研究通过系统实验和理论构建发现,传统方法很难解释为什么大型神经网络的泛化性能良好,即使加入正则化仍然不会改变随机标记训练数据的状态,因为只要参数数量超过数据点数量,简单的两层神经网络就能实现完美的有限样本表达能力。
Nov, 2016
深度神经网络(DNN)在图像分类和物体识别任务中的表现令人印象深刻,然而它们对于颜色知觉等人类视觉基本方面的捕捉程度仍不清楚。本研究使用新型实验评估了 DNN 颜色嵌入的感知一致性,并通过在线调查评估了这些算法如何预测人类的颜色相似性判断。我们发现最先进的 DNN 架构,包括卷积神经网络和视觉变换器,所提供的颜色相似性判断与人类得出的(i)具有受控颜色属性的图像、(ii)从在线搜索生成的图像以及(iii)来自经典 CIFAR-10 数据集的现实世界图像存在显著差异。与我们检查的所有 DNN 相比,我们的基于小波分解的可解释和基于认知的颜色知觉模型提供更一致的颜色嵌入结果,更好地预测了人类的颜色判断。这些结果适用于在使用类似 DNN 体系结构进行训练的高级视觉任务(例如图像分类与图像分割)以及检查给定 DNN 体系结构中不同层的颜色嵌入时。这些发现在分析机器学习算法的感知表示和改进其作为人类视觉的认知合理模型的努力中创新了新的领域。机器学习、人类感知和具身认知的影响正在讨论中。
Sep, 2023