基于多智能体协作的本地补丁自动增强
本文介绍了一种自动搜索图像数据增强策略,使用神经网络在目标数据集上产生最高准确性,并在CIFAR-10,CIFAR-100,SVHN和ImageNet数据集上实现了最先进的准确性,同时找到的增强策略可在不同数据集间转移学习。
May, 2018
本文提出了一种名为Fast AutoAugment的算法,通过基于密度匹配的更高效的搜索策略找到有效的数据扩充策略,相比于AutoAugment,该算法在各种模型和数据集上加速了搜索时间,并实现了可比较的图像识别性能。
May, 2019
本文提出了一种可微分的策略搜索方法,用于数据增强,该方法比之前的方法更快,使用的是离散参数变换的近似梯度和可分辨操作选择机制。我们的方法通过最小化增强数据与原始数据之间的分布距离来优化,比之前的工作实现了显著更快的搜索,而不会出现性能下降。
Nov, 2019
通过使用对抗性方法,Adversarial AutoAugment 能够通过同时优化目标相关对象和数据增强策略搜索损失,以便更快且更有效率地完成深度神经网络的训练及图像分类任务,从而将计算成本减少12倍,时间开销减少11倍,达到了最佳的实验成果。
Dec, 2019
本研究提出Differentiable Automatic Data Augmentation (DADA)算法,使用Gumbel-Softmax方法实现对离散的数据增强方法的选择,引入RELAX无偏梯度估计方法,提高了数据增强策略的学习效率。在CIFAR-10、CIFAR-100、SVHN和ImageNet数据集上的实验证明了该算法在达到同等精度的情况下,比现有最先进算法至少快一个数量级。同时,研究还证明了自动数据增强在预训练方面的价值。
Mar, 2020
本文提出了一种基于显著性图的数据增强方法KeepAugment,通过保留图像中的重要区域进行增强,从而提高了深度学习系统的性能,在图像分类、半监督图像分类、多视角多摄像头跟踪和目标检测等领域获得了显著的结果。
Nov, 2020
本文提出了一种以样本为基础的数据增强策略,采用元学习解决数据增强效果与样本间变异之间的平衡问题,并在CIFAR-10/100、Omniglot、ImageNet等数据集上通过实验证明了其优越性能。
Dec, 2020
本文探究了数据增强技术在视觉强化学习中的有效性,研究数据增强的相关特征对样本效率的影响并提出了新的操作方法 Random PadResize 和循环增强(Cycling Augmentation)以提高样本利用效率。在DeepMind控制套件和CARLA驾驶模拟器上的广泛评估表明,与先前的最先进方法相比,我们的方法实现了更好的样本效率。
May, 2023
AdaAugment是一种无需调参的创新自适应增强方法,利用强化学习根据目标网络的实时反馈动态调整个别训练样本的增强程度,通过优化策略网络和目标网络的联合来有效适应增强程度,从而在效果和效率上一致性地优于其他最先进的数据增强方法。
May, 2024