本论文提出了一种基于可视化分析的方法,以更好地理解、诊断和改进深度卷积神经网络,并使用一些新的算法和技术来显示神经元和神经元群之间的多个方面和交互作用。
Apr, 2016
本文介绍了针对 x86 体系结构的直接卷积核和动态编译方法实现的 JIT 优化内核,该内核可在多节点下高效执行最新的图像识别任务,使单机和多节点运行时高效地通过 CPU 执行任务的高吞吐量。
Aug, 2018
使用预训练字向量对卷积神经网络进行训练,支持 fine-tuning 并结合静态和动态字向量,以提高句子级分类准确率并在多项基准测试中超越现有技术。
Aug, 2014
本文探讨信息理论中的向量量化方法,用于压缩卷积神经网络中的参数,结果表明针对最消耗存储的稠密连接层使用向量量化方法比现有的矩阵分解方法更加高效,仅使用最先进的 CNN 模型在 ImageNet 挑战赛的 1000 分类任务中,即使损失 1% 的分类准确率,也能获得 16-24 倍的网络压缩优化。
Dec, 2014
通过扩展和优化快速 Winograd 级卷积算法,我们在 CPU 硬件上最大化 CPU 利用率及多核可伸缩性,处理了视频和体积图像分析中的空时特征,并证明了与之前的最先进技术相比,吞吐量提高了 5 到 25 倍。
Nov, 2016
本文探讨了对于卷积神经网络的内存效率的优化,以及其对性能的影响,并提出了数据布局及内存访问模式方面的优化策略。实验证明,这些策略不仅对于单个层面有效,对于整个神经网络也可获得高达 27.9 倍和 5.6 倍的速度提升。
Oct, 2016
本篇论文主要研究了如何利用适当分解卷积和激进的正则化等方法,使卷积神经网络计算效率最大化,并以 ILSVRC2012 分类挑战作为基准,报告了使用少于 2500 万参数的 5 亿乘加运算成本的网络,评估单帧评估的 top-1 误差 21.2%和 top-5 误差 5.6%的显著成果。
Dec, 2015
本文提供了对现有技术的卷积神经网络分析和拓扑构建的全面概述,并描述和评估了一些层次分类器。此外,本文还开发了一种可视化分类错误的新方法,并在 CIFAR-100 上量化了一些结果,如在精度方面较小批量大小、平均集成、数据增强和测试时间转换等的积极影响。本文还开发了一个模型,它只有 100 万个学习参数,适用于 32x32x3 和 100 类输入,并在基准数据集 Asirra、GTSRB、HASYv2 和 STL-10 上击败了现有技术。
Jul, 2017
本文旨在加速卷积神经网络(CNNs)的测试时间计算,特别是对计算机视觉领域产生重大影响的非常深的 CNNs。通过开发一种不需要随机梯度下降(SGD)的有效解决方案,解决产生的非线性优化问题,我们提出了一种新的非线性方法,在对多个层进行逼近时实现了一种不对称重建,以减少快速积累误差,并成功地在 Object detection 中实现了优雅的精度降级。
May, 2015
本文通过严格的评估探索了不同的深度学习架构,比较它们在公共领域的性能,并识别和披露了重要的实现细节,同时指出了 CNN 基础表示的几个有用属性,包括输出层维度可以显著降低而不会对性能产生不利影响,以及深浅层方法可以成功共享的方面。
May, 2014