深度卷积网络是层次化的核机器
本文考察卷积神经网络中层数、特征图数量和参数数量对模型性能的影响,结果表明,增加层数和参数数量都有明显改善,而特征图数量(和表示的维度)对模型性能影响较小,更应关注这些层中的参数数量。
Dec, 2013
本文探讨了如何将卷积神经网络推广到更广泛的定义域上。作者提出了两种构造方法,分别基于分层聚类和图拉普拉斯谱。结果表明,在低维图形上,可以实现独立于输入尺寸的卷积层学习,从而实现高效的深度网络结构。
Dec, 2013
通过用一种新型卷积神经网络(CNN)来编码不变性的再生核,本文解决了视觉识别中旨在设计对特定变换具有不变性的图像表示的问题, 其中与传统方法不同的是,我们的网络学习在训练数据上逼近核特征映射,从而带来了多个优势,包括获得具有不变性的简单神经网络体系结构,实现与更复杂CNNs相似的准确度,以及抵抗过拟合等。
Jun, 2014
本文提出了一种基于分层结构的深度卷积神经网络(HD-CNNs),易分类的类别使用粗分类器进行区分,难分类的类别使用细分类器进行区分,并使用条件执行和层参数压缩等技术提高了可扩展性,成功地在CIFAR100和ImageNet等基准数据集上取得了最优结果。
Oct, 2014
本文研究了卷积神经网络的分类问题,并发现不同类别之间存在层级关系。同时,网络中不同层次的特征检测器的训练行为也在一定程度上受到类别层次结构的影响。根据这些发现,设计了一种层次感知的卷积神经网络,有效提高了模型的准确性并解决过拟合问题,并能够帮助发现训练数据中的各种质量问题。
Oct, 2017
本研究通过核方法的角度对卷积核网络进行了研究,发现其RKHS由补丁之间的交互项的加性模型组成,其范数通过汇聚层促进这些项之间的空间相似性,并提供了泛化界,以说明池化和补丁如何提高样本复杂度保证。
Feb, 2021
本研究探讨了一层卷积、汇集和降采样操作组成的核的RKHS,并用它来计算高维函数的一般化误差尖锐的渐近值。结果表明,卷积和池化操作在一层卷积核中如何在逼近和泛化能力之间权衡。
Nov, 2021
本文探讨了使用深度卷积神经网络训练高维数据的难点,回答了在随机分层模型中学习所需的训练数据量成长与类别数、高级特征组成式的幂、重复次数成多项式关系的问题,并给出了相应的估算方法。
Jul, 2023