深度残差网络用于图像识别
本文通过严格的评估探索了不同的深度学习架构,比较它们在公共领域的性能,并识别和披露了重要的实现细节,同时指出了CNN基础表示的几个有用属性,包括输出层维度可以显著降低而不会对性能产生不利影响,以及深浅层方法可以成功共享的方面。
May, 2014
本文通过使用小的卷积滤波器的架构,对不断增加深度的网络的精度进行了全面评估,表明通过将深度推到16至19个权重层,可以显著提高以往技术水平,并在ImageNet Challenge 2014中获得了第一和第二名。我们还证明了该表示法在其他数据集上具有很好的泛化性能,并公开了我们表现最佳的两个ConvNet模型,以便进一步研究深度视觉表示在计算机视觉中的应用。
Sep, 2014
通过重新评估小图像物体识别的状态并提出新的CNN网络结构,本文发现在保持精度的情况下,最大池化层可以简单地用增加步长的卷积层取代,并引入了一种新型的变体来可视化CNN学习到的特征。
Dec, 2014
该研究论文探讨了计算机视觉问题中使用深度学习技术的发展趋势,着重介绍了卷积神经网络(CNNs)及其应用,帮助初学者了解何种深度网络适用于计算机视觉问题。
Jan, 2016
本研究发现在Inception网络中加入残差连接有助于加速训练并提高图像识别性能,同时还提出了几种优化的网络结构,实验结果在ILSVRC 2012分类任务中取得了显著的性能提升。
Feb, 2016
采用残差学习和反Huber loss,提出了一种全卷积结构的模型,可通过单个RGB图像估计场景深度图,优于当前所有深度估计方法,且无需后处理技术,能够实时运行。
Jun, 2016
通过在卷积残差网络中引入长短时记忆机制,增强了记忆机制加强卷积神经网络的性能,使得该方法在CIFAR-100基准测试上优于其他最先进的技术,并且在CIFAR-10和SVHN基准测试上与之相当,而且相比于深度相当的深度残差神经网络,网络宽度更大,深度更小,总体计算量更少。
Jun, 2016
探索使用逐渐增加特征映射维度的方式,提高深度残差神经网络的泛化能力,并提出了一种新的残差单元,增强了其分类准确性;实验表明,与原始的残差网络相比,该网络结构具有更好的泛化能力。
Oct, 2016
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
通过引入注意力机制,在端到端的训练过程中将其与最先进的前馈网络结构相结合,我们提出了一种卷积神经网络模型“Residual Attention Network”,并在CIFAR-10、CIFAR-100和ImageNet三个基准数据集上实现了最佳的物体识别表现。
Apr, 2017