限定时间成本下的卷积神经网络
通过给训练数据增加更多的图像变换、给测试时产生更多的预测和使用应用于更高分辨率图像的补充模型等多种技术,我们改进了目前基于深度卷积神经网络的图像分类流程,并在 Imagenet 大规模视觉识别挑战赛2013中获得了前五名,我们的系统分类错误率为13.55%,相对于上一年的获胜者,出现了超过20%的相对提高。
Dec, 2013
本文旨在加速深度卷积神经网络的测试时间计算,通过最小化非线性响应的重建误差,附加一种低秩约束,以帮助降低过滤器的复杂度,该算法可以减小多层输入的叠加误差并提高模型精度,可将ImageNet的训练速度提升4倍,精度提高4.7%。
Nov, 2014
本篇论文主要研究了如何利用适当分解卷积和激进的正则化等方法,使卷积神经网络计算效率最大化,并以ILSVRC2012分类挑战作为基准,报告了使用少于2500万参数的5亿乘加运算成本的网络,评估单帧评估的top-1误差21.2%和top-5误差5.6%的显著成果。
Dec, 2015
该研究论文探讨了计算机视觉问题中使用深度学习技术的发展趋势,着重介绍了卷积神经网络(CNNs)及其应用,帮助初学者了解何种深度网络适用于计算机视觉问题。
Jan, 2016
本文对深度神经网络在计算机视觉领域中的重要应用指标进行全面分析,发现能耗与批次大小和架构无关,准确度和推断时间在双曲线关系中,能源约束是最大可实现准确度和模型复杂度的上限,操作次数是推断时间的可靠估计。
May, 2016
通过在卷积残差网络中引入长短时记忆机制,增强了记忆机制加强卷积神经网络的性能,使得该方法在CIFAR-100基准测试上优于其他最先进的技术,并且在CIFAR-10和SVHN基准测试上与之相当,而且相比于深度相当的深度残差神经网络,网络宽度更大,深度更小,总体计算量更少。
Jun, 2016
提出了一种简单的卷积神经网络架构(SimpleNet),在保持计算和内存效率的同时,具有与更复杂的CNN相媲美的性能,在多个基准测试中表现出色,包括CIFAR-10,MNIST,CIFAR-100和SVHN,甚至在ImageNet数据集中也优于许多更大更深的CNN模型。
Aug, 2016
本文提供了对现有技术的卷积神经网络分析和拓扑构建的全面概述,并描述和评估了一些层次分类器。此外,本文还开发了一种可视化分类错误的新方法,并在CIFAR-100上量化了一些结果,如在精度方面较小批量大小、平均集成、数据增强和测试时间转换等的积极影响。本文还开发了一个模型,它只有100万个学习参数,适用于32x32x3和100类输入,并在基准数据集Asirra、GTSRB、HASYv2和STL-10上击败了现有技术。
Jul, 2017
本文综述了卷积神经网络的历史,概述了卷积神经网络的结构,介绍了一些基础和高级模型,并通过实验分析总结了一些适用函数的经验法则。此外,本文还涵盖了一维、二维和多维卷积的应用,并讨论了卷积神经网络面临的一些问题和未来的方向。
Apr, 2020