大规模神经系统识别:分离 “何时” 和 “何地” 信息
该研究使用特征打乱的方法,结合 CNNs 的最小可识别构型分析和有效接受域尺寸的系统控制,探索了 CNNs 在对象分类中是否使用特征的空间排列,并且发现它们实际上能够利用相对较远的空间关系进行对象分类,同时证明 CNNs 使用的空间关系程度非常依赖于特定数据集和该数据集中不同类别对象的分类策略也不同。最后,研究还发现 CNNs 只能学习特征的中间粒度的空间排列,这提示了在对象分类中中间层次的形状特征提供了敏感度和特异性之间的最佳平衡点。
Dec, 2022
通过对比深度神经网络与生物神经元记录的研究,本文提出了一个系统鉴定研究,重点比较单张图片和视频理解模型在视觉皮层记录方面的效果,并通过实验和模拟环境的设置,对超过 30 种不同模型进行了比较,揭示了视频理解模型优于图片理解模型,卷积模型在早期 - 中期区域的效果优于基于变换器的模型(除了多尺度变换器在这些区域表现良好),双流模型优于单流模型的关键观点。
Feb, 2024
本研究用深度学习卷积神经网络尝试预测视神经系统中的神经元反应,结果显示,CNN 能学到视网膜电路的生物学组成,且这些特征可以显示为视网膜节细胞传统感受野的空间瓦片,为研究神经回路的结构奠定了基础。
Nov, 2017
通过使用深度卷积神经网络模型,本文发现视觉系统中的不同神经约束可以导致视觉处理的不同阶段产生不同的表征模式,并预测小型脊椎动物的视网膜应执行非线性的特征检测计算,而大型动物的视网膜应当基本以线性方式编码视觉场景以响应广泛的刺激。
Jan, 2019
在神经网络中,单个神经元往往是 “可解释的”,因为它们代表了个别直观有意义的特征。然而,许多神经元表现出混合选择性,即它们代表多个不相关的特征。最近的假设提出深度网络中的特征可能通过多个神经元以非正交的方式进行 “叠加”,因为自然数据中可解释的特征数量通常大于给定网络中的神经元数量。因此,我们应该能够在激活空间中找到与个别神经元不一致的有意义方向。在这里,我们提出了(1)一种自动化方法,用于量化视觉可解释性,并与人类心理物理学对神经元可解释性的大型数据库验证,以及(2)一种在网络激活空间中找到有意义方向的方法。我们利用这些方法在卷积神经网络中发现了比个别神经元更具直观意义的方向,通过一系列分析进行了确认和调查。此外,我们将相同的方法应用于大脑中两个最近的视觉神经响应数据集,并发现我们的结论在大部分转移到真实神经数据上,这表明大脑可能使用了叠加。这也与去纠缠有关,并在人工和生物神经系统中提出了关于稳健、高效和分解表示的基本问题。
Oct, 2023
本文为了帮助理解 CNNs 的黑盒特性以及它们构建的表示和这些表示如何组织,提出了通过神经元功能可视化描述神经元的活动,并用两个特定的属性量化它们固有的选择性,探索特定选择性指标,并建立了一个通过选择性属性对神经元进行索引的框架,可帮助找到颜色选择性神经元和类选择性神经元,从而在神经元索引方面提供了一种方法。
Feb, 2017
通过结合生物神经元原理,使用基于神经科学的计算模型来增强训练效率和提高准确性,以推动组合感受野模型作为卷积神经网络的基础层,从而在 CIFAR-10、CIFAR-100 和 ImageNet-100 数据集上实现性能显著提升(平均提升 5%-10%)
Nov, 2023