本研究介绍了一种基于概率函数的输入变量表示方法,并提出如何量化各层对原始数据信息提取的贡献,并应用于深度表示的无监督学习,具有可实施性和科学性。
Oct, 2014
该论文讨论了i-theory中典型层次结构的构成,提出现代DCNs可以与具有池化和非池化层次的核机器的层级架构完全等效,最终提出高效的结构猜想。
Aug, 2015
本文提出了一种基于层次化组合模型的分析模型,通过显式的结构模型和明确的鉴别成本函数结合,在两个数据集上的实验表明,该模型在判别任务中表现和标准 CNN 相当,同时由于特征单元中结构的明确建模,使得其部分具体化可视化、推理快速分离,并且从局部观察中还原能力更强。
Sep, 2016
本文提出了一种扩充并训练卷积神经网络的方法,使其学到的特征是组成式的,并促进对对象的分离。实验表明,这种组成式特征学习方法在目标识别任务中相比非组成式基线可以获得更好的性能提升。
Jun, 2017
本文研究了卷积神经网络的分类问题,并发现不同类别之间存在层级关系。同时,网络中不同层次的特征检测器的训练行为也在一定程度上受到类别层次结构的影响。根据这些发现,设计了一种层次感知的卷积神经网络,有效提高了模型的准确性并解决过拟合问题,并能够帮助发现训练数据中的各种质量问题。
Oct, 2017
该研究介绍了一个名为ConceptWorld的环境,用于生成通过逻辑领域特定语言定义的构成和关系概念的图像。研究测试了标准神经网络和关系网络的泛化能力,并提出了一个潜在的基准模型,以鼓励在构成和关系领域有效泛化的模型的发展。
Jun, 2020
这篇文章介绍了线性卷积神经网络学习的理论,发现卷积操作会导致数据集结构和网络结构不匹配,而线性卷积神经网络则通过非线性阶段性的转变发现数据集的统计结构,这种结构不匹配是影响神经网络性能的核心问题之一,同时还解释了卷积神经网络偏向于纹理而非形状的现象。
Mar, 2023
通过研究深度学习模型的架构和数据内在结构之间的关系,本文探讨了深度学习的理论基础,并通过实验和物理启发式玩具模型的结合,揭示了它们的内在工作原理,旨在填补理论与实践之间的鸿沟。
Oct, 2023
通过引入数据的稀疏性到生成式分层模型中,我们展示了学习到的抽象表达和空间变换的不变性之间的强相关性,并解释了卷积神经网络在 Sparse Random Hierarchy Model(SRHM) 中的样本复杂性如何依赖于任务的稀疏性和分层结构。
Apr, 2024
深度神经网络可以有效地学习有界F1-范数的任何函数组合,从而打破维度诅咒,得到具有创新性的广义限制。
Jul, 2024