深度神经网络的特征层级增强提高仿射变换鲁棒性
本文研究数据增强在图像分类中的应用,对比了多种增强技术,包括传统的裁剪、旋转和翻转以及使用GAN生成不同风格的图像,并提出了一种名为神经增强的方法,通过训练神经网络自学习增强,以提升分类器性能,对该方法在不同数据集上表现的优劣进行了讨论。
Dec, 2017
本文研究数据增强在卷积神经网络中的隐式规则效应,与显式正则化技术(如权重衰减和Dropout)相比,数据增强能更易于适应不同的网络结构和训练数据。通过对不同网络架构和训练数据量的消融研究,我们揭示了数据增强的优势,这是长期被忽视的问题。
Jun, 2019
利用数据增强作为正则化方式,我们从解析角度重新考虑了数据增强在深度神经网络中的泛化问题,并发现它显著降低了模型泛化误差,但同时也导致略微增加了经验风险。使用较少的数据对完整增强的数据进行训练能够帮助模型更好地收敛于更好的区域,从而进一步提高准确性。
Sep, 2019
本研究提出了基于数据层面上的集成学习方法,在 Convolutional Neural Networks 的训练集上应用将14种数据增强方法生成的图像构建ensemble,其中包括了基于傅里叶变换、Radon 变换和离散余弦变换的三种新型数据增强方法。通过11个基准测试的比较,证明了该方法不仅与当前的最优方法竞争力度一致,有时还能超过其性能。
Jan, 2022
本文系统地综述了不同的图像数据增强方法,提出了分类学,分析了这些方法的优点和局限性,以及在三个典型的计算机视觉任务上所做的大量实验,包括语义分割,图像分类和物体检测。最后,我们讨论了数据增强面临的挑战以及未来的研究方向,以提出一些有用的研究指导。
Apr, 2022
本文旨在评估不同数据集上的数据增强技术对于不同神经网络的性能影响,显示出一种把数据增强技术和深度学习模型架构相结合的方法可提高深度学习任务的性能。
May, 2022
采用“Deep Augmentation”方法,通过在神经网络内部针对性地应用dropout实现数据增广,并采用stop-gradient操作进一步提高模型性能和泛化能力,在视觉和自然语言处理领域的对比学习任务中通过对ResNets和Transformers模型的广泛实验证明效果显著,与增广输入数据相比,针对深层模型的Deep Augmentation效果更好,而且该方法简单且对网络和数据无限制,方便集成到计算机视觉和自然语言处理流程中。
Mar, 2023
本文研究了在神经网络中使用图像增强技术的效果对ResNet网络中不同层的影响和应用,发现使用两幅图像的增强技术显著影响网络学习,而对于采用Imagenet-1K权重和fine-tuning的深层ResNets,各层受到的影响程度不同。
Jun, 2023
卷积神经网络 (CNN) 在各种计算机视觉任务中提供了最先进的性能。本文研究如何在CNN中最佳地包括旋转不变性以进行图像分类,并通过数据增强等方法训练网络以实现旋转不变性。
Oct, 2023