对话任务自动学习数据增强策略
本文介绍了一种自动搜索图像数据增强策略,使用神经网络在目标数据集上产生最高准确性,并在 CIFAR-10,CIFAR-100,SVHN 和 ImageNet 数据集上实现了最先进的准确性,同时找到的增强策略可在不同数据集间转移学习。
May, 2018
通过使用对抗性方法,Adversarial AutoAugment 能够通过同时优化目标相关对象和数据增强策略搜索损失,以便更快且更有效率地完成深度神经网络的训练及图像分类任务,从而将计算成本减少 12 倍,时间开销减少 11 倍,达到了最佳的实验成果。
Dec, 2019
Text AutoAugment 是一种数据增强方法,通过贝叶斯优化算法自动寻找最佳组合操作作为增强策略应用于训练数据。该方法显著提高了模型的泛化能力,并在六个基准数据集上表现突出,特别是在低资源和类不平衡情况下,相应的分类准确率平均分别提高了 8.8% 和 9.7%。
Sep, 2021
本文提出了一种基于 AutoAugment 的方法来解决文本数据增强中的语义损害问题,并实验证明该方法可以改善现有的增强方法,并增强先进的预训练语言模型。
Feb, 2024
本文通过比较三种方法,探究如何寻找适当的数据增强方式,并结合两个新的正则化项,以理论上的方式为某些 actor-critic 算法的数据增广提供支持,最终在 Procgen 基准测试上展示了在相对于标准 RL 算法提高了~40% 的测试性能。我们的代理优于其他针对 RL 中泛化改进的基线。此外,我们还展示了我们的代理学习出更能适应环境变化的策略和表示,包括不保留背景信息的变化。
Jun, 2020
本文提出了一种可微分的策略搜索方法,用于数据增强,该方法比之前的方法更快,使用的是离散参数变换的近似梯度和可分辨操作选择机制。我们的方法通过最小化增强数据与原始数据之间的分布距离来优化,比之前的工作实现了显著更快的搜索,而不会出现性能下降。
Nov, 2019
本文提出了一种以样本为基础的数据增强策略,采用元学习解决数据增强效果与样本间变异之间的平衡问题,并在 CIFAR-10/100、Omniglot、ImageNet 等数据集上通过实验证明了其优越性能。
Dec, 2020
本文提出了一种名为 Fast AutoAugment 的算法,通过基于密度匹配的更高效的搜索策略找到有效的数据扩充策略,相比于 AutoAugment,该算法在各种模型和数据集上加速了搜索时间,并实现了可比较的图像识别性能。
May, 2019