理解图像增强的好处
本文旨在评估不同数据集上的数据增强技术对于不同神经网络的性能影响,显示出一种把数据增强技术和深度学习模型架构相结合的方法可提高深度学习任务的性能。
May, 2022
本文提出了在中间神经网络层引入数据增强以改善卷积神经网络不适用于少量像素旋转或平移的问题,并证明该方法比已有的两种方法获得更好的精度和平均翻转比。
Feb, 2022
本文研究数据增强在卷积神经网络中的隐式规则效应,与显式正则化技术(如权重衰减和 Dropout)相比,数据增强能更易于适应不同的网络结构和训练数据。通过对不同网络架构和训练数据量的消融研究,我们揭示了数据增强的优势,这是长期被忽视的问题。
Jun, 2019
本文研究数据增强在图像分类中的应用,对比了多种增强技术,包括传统的裁剪、旋转和翻转以及使用 GAN 生成不同风格的图像,并提出了一种名为神经增强的方法,通过训练神经网络自学习增强,以提升分类器性能,对该方法在不同数据集上表现的优劣进行了讨论。
Dec, 2017
本文考察了一系列线性变换及其对于过参数化线性回归问题中的岭回归估计量的影响,证实了保留数据标签的变换能够通过扩大训练数据空间来提高估计精度,而混合数据的变换则能够达到一种正则化效果。在此基础上,提出一种根据模型不确定性搜索变换空间的数据增强方案,并在图像和文本数据集上测试,证实了其表现优于已有的 RandAugment 方法及能够达到现有 SoTA 方法的精度。
May, 2020
通过在训练过程中引入高频特征提取和边缘增强的方法,我们提出了一种增强神经网络的准确性和训练速度的方法。实验证明了我们的方法在两个不同的数据集 CIFAR10 和 CALTECH101 以及三种不同的网络架构 ResNet-18,LeNet-5 和 CNN-9 上的有效性。
Jan, 2024
本文探讨了图像分类模型训练过程中的一些改进方法,如数据增强和优化方法的变化,通过实验证明这些改进方法的整合能够显著提高 CNN 模型的准确性,在 ImageNet 上,我们将 ResNet-50 的 top-1 验证准确率从 75.3% 提高到 79.29%,而且还证明了这种提高对于其他应用领域,如目标检测和语义分割,也具有更好的迁移学习性能。
Dec, 2018
采用 “Deep Augmentation” 方法,通过在神经网络内部针对性地应用 dropout 实现数据增广,并采用 stop-gradient 操作进一步提高模型性能和泛化能力,在视觉和自然语言处理领域的对比学习任务中通过对 ResNets 和 Transformers 模型的广泛实验证明效果显著,与增广输入数据相比,针对深层模型的 Deep Augmentation 效果更好,而且该方法简单且对网络和数据无限制,方便集成到计算机视觉和自然语言处理流程中。
Mar, 2023
本研究提出了基于数据层面上的集成学习方法,在 Convolutional Neural Networks 的训练集上应用将 14 种数据增强方法生成的图像构建 ensemble,其中包括了基于傅里叶变换、Radon 变换和离散余弦变换的三种新型数据增强方法。通过 11 个基准测试的比较,证明了该方法不仅与当前的最优方法竞争力度一致,有时还能超过其性能。
Jan, 2022
数据增强可以增强计算机视觉模型的泛化能力,但可能引入偏差,不均匀地影响类别准确性。我们的研究扩展了这一调查,通过随机裁剪考察了数据增强在不同数据集上的类别特定偏差,包括那些与 ImageNet 不同的数据集。我们使用 ResNet50、EfficientNetV2S 和 SWIN ViT 评估了这一现象,发现残差模型显示了类似的偏差效果,而视觉变换器表现出更高的稳健性或不同的动态变化。这表明在模型选择上需要一种细致入微的方法,强调偏差缓解。我们还改进了 “数据增强稳健性侦查” 方法,以更高效地管理数据增强引起的偏差,显著减少了计算需求(只需训练 112 个模型而不是 1860 个,减少了 16.2 倍),同时仍能捕捉到重要的偏差趋势。
Mar, 2024