一组简单卷积神经网络模型的集成以实现 MNIST 数字识别
本文旨在分析卷积神经网络隐藏层模式对其整体性能的影响,针对 MNIST 数据集使用不同层数的神经网络测试其准确率变化并进行比较,探究深度学习在模式识别上的应用。
Sep, 2018
本研究探索了三种分类网络,即 XceptionNet、DenseNet 和 EfficientNet,通过集成机制来提高计算机辅助乳腺肿块分类的识别能力。在公共数据集上验证该方案,可以获得 88%的准确度,85%的精度和 76%的召回率。
Apr, 2023
本文使用卷积神经网络 (ConvNets) 分类实际房屋数字,通过学习多层特征和使用 Lp pooling 等方法优化传统神经网络结构并在 SVHN 数据集上实现了 94.85% 的准确率,比以前的方法提高了 45.2% 的准确性,同时分析了 ConvNets 中不同池化方法和多层特征的优劣。
Apr, 2012
该研究通过探究多种集成方法,包括超级学习器等,运用人工神经网络在图像识别任务中进行设计多个实验,并进一步研究了神经网络的过度自信现象及其对集成方法的影响,并在所有实验中发现超级学习器是表现最佳的集成方法。
Apr, 2017
本研究在 ISIC Challenge 2017 数据集上对 9 种 CNN 架构进行了 5 种切分和 3 种重复测试,结果发现 CNN 架构在 ImageNet 上的表现与目标任务的表现强相关性的观点不太成立,当考虑仅使用表现最好的网络时,相关性消失,并且最佳方法仍然是创建多个模型的集成。本研究还比较了两种选择模型的方法,并发现使用验证集进行挑选略优于随机选择。
Apr, 2019
本文提供了对现有技术的卷积神经网络分析和拓扑构建的全面概述,并描述和评估了一些层次分类器。此外,本文还开发了一种可视化分类错误的新方法,并在 CIFAR-100 上量化了一些结果,如在精度方面较小批量大小、平均集成、数据增强和测试时间转换等的积极影响。本文还开发了一个模型,它只有 100 万个学习参数,适用于 32x32x3 和 100 类输入,并在基准数据集 Asirra、GTSRB、HASYv2 和 STL-10 上击败了现有技术。
Jul, 2017
本文通过使用小的卷积滤波器的架构,对不断增加深度的网络的精度进行了全面评估,表明通过将深度推到 16 至 19 个权重层,可以显著提高以往技术水平,并在 ImageNet Challenge 2014 中获得了第一和第二名。我们还证明了该表示法在其他数据集上具有很好的泛化性能,并公开了我们表现最佳的两个 ConvNet 模型,以便进一步研究深度视觉表示在计算机视觉中的应用。
Sep, 2014
通过给训练数据增加更多的图像变换、给测试时产生更多的预测和使用应用于更高分辨率图像的补充模型等多种技术,我们改进了目前基于深度卷积神经网络的图像分类流程,并在 Imagenet 大规模视觉识别挑战赛 2013 中获得了前五名,我们的系统分类错误率为 13.55%,相对于上一年的获胜者,出现了超过 20%的相对提高。
Dec, 2013
该研究提供了一个全面的基准测试,用于多样化评估医学图像分类的常见卷积神经网络和 Transformer-based 模型,并发现计算效率高的训练方案和现代基础模型在减少昂贵的端到端训练和资源精细的方法之间具有潜力。此外,研究结果表明,较高分辨率未必在一定阈值之上始终提高性能,提倡在原型阶段尤其使用较低分辨率以加快处理速度。同时,该研究也确认了卷积模型与 ViT-based 模型的竞争力,强调了不同模型架构的内在能力的重要性。希望该研究的标准化评估框架能够提高 MedMNIST + 数据集以及未来研究的透明度、可复现性和可比性。
Apr, 2024
基于多个卷积神经网络的集成模型 BanglaNet 被提出用于分类孟加拉基本字符、复合字符、数字和修饰符。在多个数据集上进行的严格实验表明,相比于最近的基于卷积神经网络的研究,该模型获得了显著的识别准确率。
Jan, 2024