本文介绍了一种自动搜索图像数据增强策略,使用神经网络在目标数据集上产生最高准确性,并在 CIFAR-10,CIFAR-100,SVHN 和 ImageNet 数据集上实现了最先进的准确性,同时找到的增强策略可在不同数据集间转移学习。
May, 2018
本文提出了一种可微分的策略搜索方法,用于数据增强,该方法比之前的方法更快,使用的是离散参数变换的近似梯度和可分辨操作选择机制。我们的方法通过最小化增强数据与原始数据之间的分布距离来优化,比之前的工作实现了显著更快的搜索,而不会出现性能下降。
Nov, 2019
Deep AutoAugment 提供了一种全自动的数据增强搜索方法,通过高效的搜索方法可制定高效的数据增强策略,获得了强大的性能表现。
Mar, 2022
本文研究数据扩增的方法及其在计算机视觉任务中的效果,提出了 UniformAugment,一种无需搜索阶段即可实现自动数据扩增的方法, 并通过标准的数据集和经典模型证明其有效性和高效性。
Mar, 2020
本研究提出了一种名为 RandAugment 的自动数据增强技术,可解决现有方法可能面临的训练复杂度和调整正则化强度的问题,并能显著提高神经网络模型的准确性和鲁棒性。
Sep, 2019
通过使用对抗性方法,Adversarial AutoAugment 能够通过同时优化目标相关对象和数据增强策略搜索损失,以便更快且更有效率地完成深度神经网络的训练及图像分类任务,从而将计算成本减少 12 倍,时间开销减少 11 倍,达到了最佳的实验成果。
Dec, 2019
该论文提出了一种名为 Label-Aware AutoAugment(LA3)的新型两阶段数据增强算法,它利用标签信息,分别为不同标签的样本学习增强策略。 LA3 的两个学习阶段分别评估并排名每个标签的单个增强方法,并从一些有效的和互补的增强中构建组合增强策略,从而提高了算法的性能在 CIFAR-10 和 CIFAR-100 上表现出与现有方法相匹配或超越的良好性能,并在 ResNet-50 上实现了 ImageNet 新的最高精度 79.97%,同时保持低计算成本。
Apr, 2023
通过自动化数据增强方法 AutoAugment, 本文实现了可用于自然语言处理任务的优化扰动操作,并且在对话生成等任务中取得了显著的性能提升。
本文提出了一种基于 AutoAugment 的方法来解决文本数据增强中的语义损害问题,并实验证明该方法可以改善现有的增强方法,并增强先进的预训练语言模型。
Feb, 2024
AutoDO 可用于深度学习模型的自动数据扩充,通过对损失权重、软标签等超参数进行联合估计来最小化测试数据和失真的训练数据之间的分布偏移,实现了偏差数据和标签噪音下的机器学习模型优化,相较于之前的方法,有着多达 9.3% 的准确度提升,并且在 SVHN 分类优化上达到了 36.6% 的增益。
Mar, 2021