本文提出了一种基于本地重要性建模的简单,通用且有效的池化层 LIP,它能够学习自适应重要性权重,从而提高下采样过程中的判别特征,在 ImageNet 分类和 MS COCO 数据集的目标检测中都取得了很好的性能。
Aug, 2019
本文介绍了一种名为 “Recombinator Networks” 的模型,该模型可以在不影响鲁棒性的前提下,通过信息重组的方式实现对精确定位的支持,相较于传统的基于求和和拼接的方法,其精度有显著提升,并将误差降低了 30%。同时作者还提出了基于卷积神经网络的去噪预测模型,进一步提升了该模型的性能。
Nov, 2015
提出了一种自适应的指数加权池化方法(adaPool),该方法在图像和视频分类以及目标检测任务中提高了细节的保留,并且比常规池化方法具有双向性,其学习到的权重也可用于上采样激活地图。
Nov, 2021
提出了一种快速有效的方法,在卷积神经网络中通过指数加权降采样操作以更好地保留信息,从而提高分类准确率和动作识别性能。
Jan, 2021
本篇研究提出,在现代卷积网络中添加抗锯齿模块能较好地提高模型的精度,使其具有更好的普适性和鲁棒性。
Apr, 2019
该论文提出了一种适应性下采样方案,通过允许以更高的分辨率处理信息丰富的区域而不是信息较少的区域,从而提高了各种已建立 CNN 的成本 - 准确性权衡效果。
May, 2023
这篇论文研究了深度学习中 dropout 技术在 pooling layer 中的应用,提出了一种基于概率加权的 pooling 方法,称为 probabilistic weighted pooling,并通过实验证明了它的优越性。
Dec, 2015
在深度学习中,池化操作是卷积网络的核心组成部分,可以自然地处理模式检测问题,但是我们没有从理论上理解何时可以进行全局优化,过参数化对泛化的影响是什么。本论文在一个受 “判别式” 和 “虚假” 的模式检测问题启发的数据生成分布下,对卷积最大池化架构进行理论分析,证明可以进行全局优化,即使是高度过参数化的模型,也可以很好地泛化,并通过实验证实,CNN 在此设置中明显优于全连接网络。
Feb, 2020
本研究发现 max-pooling 的 dropout 等同于在训练时基于多项式分布随机选择激活,提出了概率加权池化来代替常用的 max-pooling,并在 MNIST 数据集上实现了 state-of-the-art 的结果,在 CIFAR-10 和 CIFAR-100 数据集上也取得了非常有竞争力的结果,最后比较了 max-pooling dropout 和随机池化的效果。
本文研究了全局平均池化技术在卷积神经网络中应用的原理,发现其可以使网络更好地实现局部特征定位,从而建立了一种通用的可局部化的深层表示方法,并通过实验证明其在物体定位等各种任务上的有效性。