在深度学习中,池化操作是卷积网络的核心组成部分,可以自然地处理模式检测问题,但是我们没有从理论上理解何时可以进行全局优化,过参数化对泛化的影响是什么。本论文在一个受 “判别式” 和 “虚假” 的模式检测问题启发的数据生成分布下,对卷积最大池化架构进行理论分析,证明可以进行全局优化,即使是高度过参数化的模型,也可以很好地泛化,并通过实验证实,CNN 在此设置中明显优于全连接网络。
Feb, 2020
本文提出了一种新的池化方案:有序池化,其通过使用不同的权重对池化区域的元素进行加权平均以计算池化操作,从而达到了加速训练和提高准确性等优点。
Sep, 2021
本研究探讨了一层卷积、汇集和降采样操作组成的核的 RKHS,并用它来计算高维函数的一般化误差尖锐的渐近值。结果表明,卷积和池化操作在一层卷积核中如何在逼近和泛化能力之间权衡。
Nov, 2021
提出一种新的方法,通过单次处理所有图像以大幅提高效率来训练 MaxPooling 卷积网络,用于图像分割和自动钢材缺陷检测,可以取得出色的性能表现,训练时间短,1500 倍的加速。
Feb, 2013
通过泛化池化操作来提高深度神经网络的表现,我们提出了两个主要方向:(1) 通过最大池化和平均池化的组合策略来学习池化函数,(2) 学习一种树形融合池化滤波器的池化函数。实验表明,这些泛化的池化操作比传统的池化操作具有更好的不变性,并在多项广泛采用的基准数据集上创造了最优性能。
Sep, 2015
本文介绍了一种名为 “Recombinator Networks” 的模型,该模型可以在不影响鲁棒性的前提下,通过信息重组的方式实现对精确定位的支持,相较于传统的基于求和和拼接的方法,其精度有显著提升,并将误差降低了 30%。同时作者还提出了基于卷积神经网络的去噪预测模型,进一步提升了该模型的性能。
Nov, 2015
研究采用分数最大池化的卷积神经网络,其使用随机的方式构建合适的池区域,有效降低了过拟合问题,提高了数据集的性能表现。
Dec, 2014
在图像分类中,卷积神经网络通过卷积和池化实现了重大进展;然而,对于图中的池化方法存在着一些问题,如图的断开或过连接、低减少率和删除大部分图等。本文基于最大独立集的概念提出了三种池化方法,并通过实验结果确认最大独立集约束对图池化的相关性。
Jul, 2023
本研究提出了一种具有随机空间采样的池化策略(S3Pool),其在多个流行的图像分类基准测试中表现出显著的改进。
Nov, 2016
这篇论文研究了深度学习中 dropout 技术在 pooling layer 中的应用,提出了一种基于概率加权的 pooling 方法,称为 probabilistic weighted pooling,并通过实验证明了它的优越性。
Dec, 2015