本研究通过核方法的角度对卷积核网络进行了研究,发现其 RKHS 由补丁之间的交互项的加性模型组成,其范数通过汇聚层促进这些项之间的空间相似性,并提供了泛化界,以说明池化和补丁如何提高样本复杂度保证。
Feb, 2021
本文研究了深度卷积体系结构的多尺度不变表示问题,提出了基于卷积核网络的多层核方法,分析了核映射引起的几何学效应,表明可以将数据表示与学习分离,提出了模型复杂度的规范化测量,即控制所学模型的稳定性和泛化能力的重复核希尔伯特空间规范,证明了已有卷积神经网络能够映射到该空间中。
Jun, 2017
本文提出了一种基于多层核机的图像表示方法,并通过监督学习来调整核的形态。该方法构建了一种新的卷积神经网络,在一些深度学习数据集上取得了良好的分类表现,表明了该方法在图像相关任务中的应用价值。
May, 2016
本文研究卷积网络对其输入区域之间相关性的建模能力,并通过理论分析和实证验证,证明深度网络的池化几何形状是控制感性偏差的一种手段,使其在输入不同类型的数据时可以适应不同的偏差方向。
在某种随机梯度下降初始化的情况下,神经网络可被再现核希尔伯特空间方法良好逼近用于某些分类任务。在特殊情况下,通过学习最佳低维表示,神经网络可胜过再现核希尔伯特空间方法,证明了神经网络比再现核希尔伯特空间方法更适合维度严重受限的特殊分类任务。
Jun, 2020
通过用一种新型卷积神经网络(CNN)来编码不变性的再生核,本文解决了视觉识别中旨在设计对特定变换具有不变性的图像表示的问题, 其中与传统方法不同的是,我们的网络学习在训练数据上逼近核特征映射,从而带来了多个优势,包括获得具有不变性的简单神经网络体系结构,实现与更复杂 CNNs 相似的准确度,以及抵抗过拟合等。
Jun, 2014
该研究使用新操作 Local Average Pooling (LAP) 修正了 CNN-GP 和 CNTK 并采用 Coates 等人提出的图像预处理技术,成功将在 CIFAR-10 数据集上的分类准确率提升至 89%,具有与 AlexNet 相当的表现。
Nov, 2019
深度神经网络具有自动从原始数据中学习相关特征的能力,但完全连接(FC)和卷积架构(CNN)中的特征学习方式不同。本研究通过理论和实验证明了有限宽度 FC 网络的泛化性能可以通过选择适当的高斯先验来获得无限宽度网络的结果,而具有卷积隐藏层的架构则展现出了一种不同的特征学习方式。
Jul, 2023
通过基于随机投影导出的特征近似核函数,提出了有效地克服核方法计算复杂度的方法,并在图像识别和语音识别等大规模学习问题上成功地比较了核方法和深度神经网络的性能,同时克服了模型调节的困难。
Nov, 2014
本文旨在利用图形核函数解决图形数据处理问题,通过选取合适的滤波器、池化层以及前馈神经网络进行特征学习,最终在十个基准数据集的七个中达到了优异的表现。
Oct, 2017