本文研究深度卷积神经网络的内部跳跃连接如何进行输出的聚合,提出了在特定深度只聚合少量先前输出的连接结构,并证明这种连接结构比现有的聚合方式在性能优化上更加有效。
Jan, 2018
本文介绍了一种名为 “Recombinator Networks” 的模型,该模型可以在不影响鲁棒性的前提下,通过信息重组的方式实现对精确定位的支持,相较于传统的基于求和和拼接的方法,其精度有显著提升,并将误差降低了 30%。同时作者还提出了基于卷积神经网络的去噪预测模型,进一步提升了该模型的性能。
Nov, 2015
通过进行深度聚合来更好地融合图像识别中层间的信息,并对网络体系结构的各个方面进行了实验研究,发现深度聚合可以提高识别效果并减少网络参数。
Jul, 2017
本论文提出和评估了几个深度神经网络架构,用于对比以往更长时间段内视频图像信息的组合。通过一些新的方法,包括卷积时间特征池化和循环神经网络结构,该论文指出最佳神经网络在 Sports 1 million 数据集(73.1%对 60.9%)和 UCF-101 数据集中(88.6%对 88.0%)及无附加光流信息(82.6%对 72.8%)上明显性能提高。
Mar, 2015
本文介绍了一种名为 CondenseNet 的新型神经网络体系结构,其使用学习组卷积方法实现了稠密连接,移除了那些无用的连接,并使得此模型比类似 MobileNets 和 ShuffleNets 的最先进紧凑卷积网络更为高效。
Nov, 2017
研究了一种用于图像分类的高度模块化的网络架构,通过增加变换的数量维度,提高其分类准确性。
Nov, 2016
我们提出一种基于多分辨率分析的序列模型,通过引入 multiresolution 卷积来捕捉输入序列的多尺度趋势,该模型性能优异,适用于各种序列分类和密度估计任务。
May, 2023
本文提出了一种称为 SimNets 的深度分层体系结构,可泛化经典的卷积神经网络(ConvNets),使用相似度函数和新的 soft max-min-mean 操作器 MEX 进行驱动,并且可以很自然地使用无监督学习进行网络初始化,并且实验表明,使用比可比的 ConvNets 小一个数量级的网络可以获得最先进的准确性。
Oct, 2014
提出了一种类似于 Inception 的新型卷积操作 Inception depthwise convolution,将大核卷积分解为四个通道维度上的平方小核、两个正交带状核和一个恒等映射,用于构建高吞吐量且性能表现强劲的网络 InceptionNeXt,取得了与性能相当的同时大幅提升训练效率,并可作为减少碳足迹的未来架构设计基线。
Mar, 2023
本文系统研究了模型的缩放并提出了一种基于网络深度、宽度和分辨率的平衡方法,进而使用神经架构搜索设计了一种新的基线网络并扩展成一系列模型,称为 EfficientNets,这些 EfficientNets 在多项测试中取得了更好的准确性和效率,包括在 ImageNet 数据集上达到了 84.3% 的 top-1 准确率,在成为当前最佳的 ConvNet 的推理速度比其快 6.1 倍、参数更少的情况下,这是一个领先的结果。
May, 2019