基于深度卷积神经网络的图像分类的一些改进
本文探讨了图像分类模型训练过程中的一些改进方法,如数据增强和优化方法的变化,通过实验证明这些改进方法的整合能够显著提高 CNN 模型的准确性,在 ImageNet 上,我们将 ResNet-50 的 top-1 验证准确率从 75.3% 提高到 79.29%,而且还证明了这种提高对于其他应用领域,如目标检测和语义分割,也具有更好的迁移学习性能。
Dec, 2018
本文通过使用小的卷积滤波器的架构,对不断增加深度的网络的精度进行了全面评估,表明通过将深度推到 16 至 19 个权重层,可以显著提高以往技术水平,并在 ImageNet Challenge 2014 中获得了第一和第二名。我们还证明了该表示法在其他数据集上具有很好的泛化性能,并公开了我们表现最佳的两个 ConvNet 模型,以便进一步研究深度视觉表示在计算机视觉中的应用。
Sep, 2014
本文研究了基于 Transformer 的图片分类模型的优化,通过两个 Transformer 模型的改进,使得模型深度增加能够带来更好的性能表现,并在 Imagenet 数据集上取得了 86.5% 的 top-1 准确率,创造了当前最高成绩。同时,我们还通过重新评估标签,打破了 Imagenet-V2 数据集的最高准确率记录,并开放了源代码和训练好的模型。
Mar, 2021
本研究从大数据方面对卷积神经网络进行了分析,并在单个和多个网络模型上提出了有效的融合机制,为大数据从业人员提供了最佳实践,从而在保持计算成本较低的情况下,在基准数据集上取得了最先进的结果。
Aug, 2016
本文提出一种新型图像分类数据集,并评估了流行的卷积神经网络结构在此数据集上的分类表现,该数据集使用抽象类进行分类,具有人类易于解决但挑战 CNN 的特点。同时还发现了该数据集的变体可以为进一步研究提供有趣的可能性。
Aug, 2017
本篇论文主要研究了如何利用适当分解卷积和激进的正则化等方法,使卷积神经网络计算效率最大化,并以 ILSVRC2012 分类挑战作为基准,报告了使用少于 2500 万参数的 5 亿乘加运算成本的网络,评估单帧评估的 top-1 误差 21.2%和 top-5 误差 5.6%的显著成果。
Dec, 2015
本研究通过使用深度学习和神经网络,采用迁移学习自实际图像和大规模文档图像数据集,分析训练数据量及其它参数对文档图像分类的影响,并展示通过使用最新的神经网络 (GoogLeNet,VGG,ResNet),文本图像分类的准确度提高了超过一半。
Apr, 2017
通过对卷积神经网络 CNNs 模型对文件图像分类任务的研究,我们发现使用剪切变形的数据扩增和一个针对更大输入图像设计的架构,可以超过基准数据集的现有技术,并且我们发现使用 RVL-CDIP 训练的 CNNs 可以学习区域特定的布局特征。
Aug, 2017
该研究论文提出了一种深度卷积神经网络架构 ——Inception,该架构在 ImageNet 图像识别竞赛中取得了新的研究成果,提高了网络的深度和宽度,同时保持计算资源的稳定利用,并基于 Hebbian 原理和多尺度处理原则进行建构。具体表现为 GoogLeNet 网络,在分类和检测领域取得了不错的成绩。
Sep, 2014
本文研究数据增强在图像分类中的应用,对比了多种增强技术,包括传统的裁剪、旋转和翻转以及使用 GAN 生成不同风格的图像,并提出了一种名为神经增强的方法,通过训练神经网络自学习增强,以提升分类器性能,对该方法在不同数据集上表现的优劣进行了讨论。
Dec, 2017