数据增强中图像变换对深度神经网络性能的影响
本文提出了在中间神经网络层引入数据增强以改善卷积神经网络不适用于少量像素旋转或平移的问题,并证明该方法比已有的两种方法获得更好的精度和平均翻转比。
Feb, 2022
本文研究数据增强在图像分类中的应用,对比了多种增强技术,包括传统的裁剪、旋转和翻转以及使用 GAN 生成不同风格的图像,并提出了一种名为神经增强的方法,通过训练神经网络自学习增强,以提升分类器性能,对该方法在不同数据集上表现的优劣进行了讨论。
Dec, 2017
本研究提出了基于数据层面上的集成学习方法,在 Convolutional Neural Networks 的训练集上应用将 14 种数据增强方法生成的图像构建 ensemble,其中包括了基于傅里叶变换、Radon 变换和离散余弦变换的三种新型数据增强方法。通过 11 个基准测试的比较,证明了该方法不仅与当前的最优方法竞争力度一致,有时还能超过其性能。
Jan, 2022
为提高深度学习模型的性能和泛化能力,本论文提出了数据、损失函数和预测等三个方面的技术,以有效地利用小数据集进行训练。通过利用仅包含每类 50 张图像的 ImageNet 数据,我们取得了高准确率,并在 “数据有效计算机视觉挑战” 中排名第四。
Jul, 2020
卷积神经网络 (CNN) 在各种计算机视觉任务中提供了最先进的性能。本文研究如何在 CNN 中最佳地包括旋转不变性以进行图像分类,并通过数据增强等方法训练网络以实现旋转不变性。
Oct, 2023
通过在训练过程中引入高频特征提取和边缘增强的方法,我们提出了一种增强神经网络的准确性和训练速度的方法。实验证明了我们的方法在两个不同的数据集 CIFAR10 和 CALTECH101 以及三种不同的网络架构 ResNet-18,LeNet-5 和 CNN-9 上的有效性。
Jan, 2024
通过给训练数据增加更多的图像变换、给测试时产生更多的预测和使用应用于更高分辨率图像的补充模型等多种技术,我们改进了目前基于深度卷积神经网络的图像分类流程,并在 Imagenet 大规模视觉识别挑战赛 2013 中获得了前五名,我们的系统分类错误率为 13.55%,相对于上一年的获胜者,出现了超过 20%的相对提高。
Dec, 2013
本文系统地综述了不同的图像数据增强方法,提出了分类学,分析了这些方法的优点和局限性,以及在三个典型的计算机视觉任务上所做的大量实验,包括语义分割,图像分类和物体检测。最后,我们讨论了数据增强面临的挑战以及未来的研究方向,以提出一些有用的研究指导。
Apr, 2022
本研究创建了一个新的注视数据集并分析了经过不同变换的图像与原始图像观察者的注视行为,发现有效的数据增强变换可以帮助训练深度显著性模型,此外,利用基于生成对抗网络的新型显著性模型可以更稳健地预测图片的显著性。
May, 2019