机器对形状与纹理的偏好:发育启发视角的探讨
这篇文章通过对卷积神经网络(CNNs)和人类观察者在具有纹理 - 形状线索冲突的图像上进行实验,揭示了 CNN 在识别物体时更倾向于识别纹理而非形状的基本不同分类策略,同时表明将 CNN 在 Stylized-ImageNet 数据集上训练可以学习到形状为基础的表示,可以更好地拟合人类行为表现,同时具有提高物体检测性能和对各种图像扭曲的鲁棒性的优点。
Nov, 2018
本研究通过设计一系列实验,发现卷积神经网络中大部分的形状信息在训练的前几个阶段就已经学习,这些信息主要由 CNN 的最后几层进行编码。此外,本文还表明形状的编码并不意味着编码的是局部像素语义信息。
Jan, 2021
本研究通过引入与图片纹理信息矛盾的图片来训练卷积神经网络,解决了网络对于形状或纹理的偏向性问题,并通过在多个图像识别基准测试和对抗性鲁棒性方面的实验表明,成功地提高了模型的表现。
Oct, 2020
本文提出利用认知心理学的问题描述、理论和实验方法来解决现代深度神经网络的可解释性问题,并将发展心理学中关于儿童如何学习物体名称的分析应用到 DNN 模型中。发现在 ImageNet 分类任务上,表现良好的一次性学习模型也存在类似人类倾向于按照形状而非颜色对物体进行分类的偏向,并证明了认知心理学工具揭示 DNNs 的隐藏计算属性的能力。
Jun, 2017
本文探讨了卷积神经网络的形状偏差属性,通过使用将亮度反转的负图像等度量方法评估 CNNs 的形状偏差属性,进行大规模实验并研究了不同因素,如训练数据、模型架构、初始化和规则化技术,对 CNNs 形状偏差属性的作用。结果表明,CNNs 不会固有地表现出形状偏差,但是适当初始化模型或适当增强数据和使用批归一化技术,可以使 CNNs 学习和推广结构。
Mar, 2018
稀疏编码通过非可微的 Top-K 操作实施了对网络的结构编码,使得卷积神经网络中的神经元能够对物体进行部分和亚部分的平滑分解,并赋予网络形状偏差。
Oct, 2023
最近的深度学习研究主要受制于使用基于越来越大数据集训练的大型模型。然而,对广泛数据集的需求增加引发了一些担忧。针对此问题,新的研究方向出现了,专注于创建合成数据以替代真实数据。在本研究中,我们调查了神经网络在合成数据集上训练时展示的形状偏差,作为合成数据质量的一个指标。具体而言,我们的发现有三个关键点:(1)形状偏差在不同的网络架构和监督类型之间存在差异,对其作为泛化的预测因素以及解释模型识别与人类能力差异的能力产生了怀疑。(2)仅依靠形状偏差来估计泛化是不可靠的,因为它与多样性和自然性纠缠在一起。(3)我们提出了一种将形状偏差解释为估计数据集中样本多样性的工具的新方法。我们的研究旨在阐明在深度学习中使用合成数据及其相关形状偏差的影响,解决有关泛化和数据集质量的担忧。
Nov, 2023
提出了 InBiaseD 来提取感知偏倚和为神经网络带来形状意识。 该方法通过偏差对齐目标来强制学习更通用的表示,从而减轻了深度神经网络中的一些缺点,如易受损的数据。 InBiaseD 通过无缝插入现有的对抗训练方案,对改善分类和鲁棒性之间的平衡起到了帮助的作用。
Jun, 2022