视觉表征的普遍维度
该论文提出了一个新的基准来测试视觉表征,该基准直接测试大脑中多个视觉皮层区域中的神经表征,并测试了产生特征空间的任何计算机视觉算法。结论是一种针对中等图像难度的学习算法能够达到与大脑皮层区域 IT 相当的性能水平,并且优于更简单的区域 V4,在较高难度水平时甚至超过了 IT。
Jan, 2013
探讨了深度神经网络能否学习到通用的图像表示,并提出一种名为 MultiNet 的新模型,在共享特征的基础上,通过在共同的表征中相互交互来整合各个任务的解决方案,实现了在标准基准测试中提高各个任务性能的目的。
Jun, 2016
通过大型标注数据集和高容量模型的出现,机器视觉系统的性能正迅速提高。然而,与人类视觉系统形成鲜明对比的是,不同的视觉问题仍然需要分别使用不同的模型进行训练。而人类视觉系统学习的是视觉的普遍表示,对于各种视觉问题都能很好地解决,而且几乎不需要改变和太多的训练数据。
Jan, 2017
通过使用深度卷积神经网络模型,本文发现视觉系统中的不同神经约束可以导致视觉处理的不同阶段产生不同的表征模式,并预测小型脊椎动物的视网膜应执行非线性的特征检测计算,而大型动物的视网膜应当基本以线性方式编码视觉场景以响应广泛的刺激。
Jan, 2019
本研究调查神经网络表示与人类认知表示之间对齐的因素,发现模型规模和架构对齐性没有实质性影响,而训练数据集和目标函数对齐性有更大的影响。研究发现,神经网络表示的线性转换有助于提高与人类相似性判断的一致性,但规模和多样性更大的数据集训练的模型也不能满足人类认知表示的需求。
Nov, 2022
在神经网络中,单个神经元往往是“可解释的”,因为它们代表了个别直观有意义的特征。然而,许多神经元表现出混合选择性,即它们代表多个不相关的特征。最近的假设提出深度网络中的特征可能通过多个神经元以非正交的方式进行“叠加”,因为自然数据中可解释的特征数量通常大于给定网络中的神经元数量。因此,我们应该能够在激活空间中找到与个别神经元不一致的有意义方向。在这里,我们提出了(1)一种自动化方法,用于量化视觉可解释性,并与人类心理物理学对神经元可解释性的大型数据库验证,以及(2)一种在网络激活空间中找到有意义方向的方法。我们利用这些方法在卷积神经网络中发现了比个别神经元更具直观意义的方向,通过一系列分析进行了确认和调查。此外,我们将相同的方法应用于大脑中两个最近的视觉神经响应数据集,并发现我们的结论在大部分转移到真实神经数据上,这表明大脑可能使用了叠加。这也与去纠缠有关,并在人工和生物神经系统中提出了关于稳健、高效和分解表示的基本问题。
Oct, 2023
通过对非侵入式脑电图记录进行对齐,我们提出了“Re(presentational)Al(ignment)Net”,这是一个与人类大脑活动对齐的视觉模型,其与人类大脑表征更加相似,从而在人工智能领域取得了突破。
Jan, 2024
在复杂的大规模架构中,深度神经网络的表征学习动态可以用编解码映射为任意平滑函数的有效理论来描述,该理论能够概括多种不同激活函数和架构的深度网络的表征学习动态,并展现类似于“丰富”和“懒惰”区域的现象。
Feb, 2024
使用大脑fMRI响应预测作为训练目标,我们研究了视觉数据、深度网络和大脑之间的有趣联系,发现通过不同目标训练的深度网络共享通用的特征通道,将这些通道聚类成不同的大脑区域,产生语义相关的物体片段,同时通过通道聚类发现了不同网络层级处理视觉信息的过程,从而实现了网络之间的精确比较。
Jun, 2024
确定人类和人工智能之间的相似性和差异是机器学习和认知神经科学的重要目标。通过借鉴认知科学的最新发展,我们提出了一个通用框架,可在人类和深度神经网络 (DNN) 中产生可比较的表示。将此框架应用于人类和自然图像的 DNN 模型,揭示了一个低维度的 DNN 嵌入,包括视觉和语义维度。与人类不同,DNN 显示出视觉特征明显优于语义特征的优势,表明表示图像的策略存在分歧。尽管在硅中的实验显示 DNN 维度具有似乎一致的可解释性,但人类和 DNN 表示之间的直接比较表明它们在处理图像时存在重大差异。通过使表示直接可比较,我们的结果揭示了表示对齐的重要挑战,为提高它们的可比性提供了一种方法。
Jun, 2024