直接可微增强搜索
本研究提出 Differentiable Automatic Data Augmentation (DADA) 算法,使用 Gumbel-Softmax 方法实现对离散的数据增强方法的选择,引入 RELAX 无偏梯度估计方法,提高了数据增强策略的学习效率。在 CIFAR-10、CIFAR-100、SVHN 和 ImageNet 数据集上的实验证明了该算法在达到同等精度的情况下,比现有最先进算法至少快一个数量级。同时,研究还证明了自动数据增强在预训练方面的价值。
Mar, 2020
本文提出了一种可微分的策略搜索方法,用于数据增强,该方法比之前的方法更快,使用的是离散参数变换的近似梯度和可分辨操作选择机制。我们的方法通过最小化增强数据与原始数据之间的分布距离来优化,比之前的工作实现了显著更快的搜索,而不会出现性能下降。
Nov, 2019
通过使用对抗性方法,Adversarial AutoAugment 能够通过同时优化目标相关对象和数据增强策略搜索损失,以便更快且更有效率地完成深度神经网络的训练及图像分类任务,从而将计算成本减少 12 倍,时间开销减少 11 倍,达到了最佳的实验成果。
Dec, 2019
通过自监督学习(SSL)在医学影像中实现有效的表征学习,但数据增广的选择是关键且领域特定的,本文通过一种叫做维度驱动增广搜索(DDA)的新方法自动搜索适合于腹腔镜手术的数据增广策略,通过对比学习在局部维度特性上差异化地搜索适合的数据增广策略,我们证明了 DDA 在导航大型搜索空间和成功识别适当的数据增广策略上的有效性和高效性,我们系统评估了 DDA 在三个腹腔镜图像分类和分割任务中的性能,并显著改进了现有基准,此外,DDA 的优化增广集合为在医学应用中应用对比学习时的领域特定依赖提供了见解,例如,对于自然图像而言,色调是一种有效的增广方式,但对于腹腔镜图像并不优势。
Jun, 2024
本文提出了一种利用自动数据增强技术进行图像分类和语义分割任务的新方法,称为 Differentiable Augmentation Search (DAS),通过生成可作为视频处理的图像变化,DAS 可以在极短的时间内搜索非常大的搜索空间,且相比标准的数据增强方法,在不同的轻量级视频骨干网络上取得更高的准确性。
Mar, 2024
本文提出了一种名为 Fast AutoAugment 的算法,通过基于密度匹配的更高效的搜索策略找到有效的数据扩充策略,相比于 AutoAugment,该算法在各种模型和数据集上加速了搜索时间,并实现了可比较的图像识别性能。
May, 2019
本研究提出了一种名为 RandAugment 的自动数据增强技术,可解决现有方法可能面临的训练复杂度和调整正则化强度的问题,并能显著提高神经网络模型的准确性和鲁棒性。
Sep, 2019
模型自适应数据增强(MADAug)是一种通过训练数据增强策略网络来向模型教授何时学习何事的方法,旨在优化泛化性能。MADAug 通过模型自适应策略在训练阶段选择每个输入图像的增强操作,构建逐步优化的数据增强课程。在多个图像分类任务中,MADAug 在性能上超过或与其他基线方法相媲美,并且在所有类别中都能带来改进,特别是对于难分类的类别。此外,MADAug 的策略在转移到细粒度数据集时表现更好,逐渐引入越来越大的扰动,并自然地形成一个从简单到困难的课程。
Sep, 2023
本研究提出了一种自适应数据增强方法,称为 DDAug,它通过动态建立一棵树状结构,使用高效的蒙特卡罗树搜索算法来更新、修剪和采样该树,从而自动优化数据集的数据增强管道,实验结果表明该方法优于当前最先进的数据增强策略。
May, 2023