本文介绍了一种自动搜索图像数据增强策略,使用神经网络在目标数据集上产生最高准确性,并在 CIFAR-10,CIFAR-100,SVHN 和 ImageNet 数据集上实现了最先进的准确性,同时找到的增强策略可在不同数据集间转移学习。
May, 2018
本文提出了一种基于敌对样本的选择性、动态并且与检测器演化相关的数据扩增方法,该方法适用于目标检测模型,能够大幅提高模型的鲁棒性和检测精度。与基于模型无关的自动增广方法相比,在不同的检测模型中,该方法表现更加广泛和稳健。
Mar, 2021
本研究提出 Differentiable Automatic Data Augmentation (DADA) 算法,使用 Gumbel-Softmax 方法实现对离散的数据增强方法的选择,引入 RELAX 无偏梯度估计方法,提高了数据增强策略的学习效率。在 CIFAR-10、CIFAR-100、SVHN 和 ImageNet 数据集上的实验证明了该算法在达到同等精度的情况下,比现有最先进算法至少快一个数量级。同时,研究还证明了自动数据增强在预训练方面的价值。
Mar, 2020
该论文提出了一种新的方法,通过在线实例化学习数据增强策略来提高 Deep neural networks 的 Adversarial training 的鲁棒性,在多个模型结构和数据集上成功地超越了现有的竞争性数据增强方法。
Jun, 2023
本研究提出了一种名为 RandAugment 的自动数据增强技术,可解决现有方法可能面临的训练复杂度和调整正则化强度的问题,并能显著提高神经网络模型的准确性和鲁棒性。
Sep, 2019
模型自适应数据增强(MADAug)是一种通过训练数据增强策略网络来向模型教授何时学习何事的方法,旨在优化泛化性能。MADAug 通过模型自适应策略在训练阶段选择每个输入图像的增强操作,构建逐步优化的数据增强课程。在多个图像分类任务中,MADAug 在性能上超过或与其他基线方法相媲美,并且在所有类别中都能带来改进,特别是对于难分类的类别。此外,MADAug 的策略在转移到细粒度数据集时表现更好,逐渐引入越来越大的扰动,并自然地形成一个从简单到困难的课程。
Sep, 2023
提出对抗数据增强方法来优化神经网络模型的训练,通过生成难度较高的增强操作来让网络进行学习,实现训练的同时进行数据增强,对人体姿势估计问题进行实验测试,证明该方法能够显著提高模型性能而不需要额外的数据增强。
Deep AutoAugment 提供了一种全自动的数据增强搜索方法,通过高效的搜索方法可制定高效的数据增强策略,获得了强大的性能表现。
Mar, 2022
本文提出了一种名为 Fast AutoAugment 的算法,通过基于密度匹配的更高效的搜索策略找到有效的数据扩充策略,相比于 AutoAugment,该算法在各种模型和数据集上加速了搜索时间,并实现了可比较的图像识别性能。
May, 2019
本研究使用基于 AutoML 的技术提出了一种高效的可微分搜索算法,称为 DDAS,它能够在图像分类基准测试上取得与 AutoAugment 可比的性能,同时大大降低了搜索成本。
Apr, 2021