元学习的数据增强
该研究提出了 MetaMix 和 Channel Shuffle 等两种元学习任务增广方法,以提高元学习的泛化能力。实验结果显示这两种方法都能显著提高元学习在多个数据集上的表现,并且与现有元学习算法兼容。
Jul, 2020
本文系统地综述了不同的图像数据增强方法,提出了分类学,分析了这些方法的优点和局限性,以及在三个典型的计算机视觉任务上所做的大量实验,包括语义分割,图像分类和物体检测。最后,我们讨论了数据增强面临的挑战以及未来的研究方向,以提出一些有用的研究指导。
Apr, 2022
本文提出了 Meta-Learning 中的过拟合问题,并使用信息理论框架讨论基于元学习数据增强的方法来解决这个问题。实验证明,该方法对最近提出的元规则技术有很大的补充作用。
Jul, 2020
该研究论文综述了基于自动机器学习(AutoML)原理的自动数据增强技术,讨论了利用 AutoML 实现数据增强的各种方法,包括数据操作、数据集成和数据合成技术,并对搜索空间设计、超参数优化和模型评估等数据增强子任务进行了广泛的讨论。最后,通过与传统增强方法基于经典方法的最新技术进行全面比较和分析,结果显示目前 AutoML 方法在数据增强方面的性能超过传统方法的最新技术。
Mar, 2024
提出了一种基于贝叶斯公式,利用广义蒙特卡洛期望最大化算法和生成对抗网络的方法,能更好地生成新的标注训练样本,并在 MNIST,CIFAR-10 和 CIFAR-100 的数据集中取得了优于现有数据增强方法和 GAN 模型的分类结果。
Oct, 2017
数据增强是一系列通过操作现有数据样本生成高质量人工数据的技术,利用数据增强技术可以显著提高人工智能模型在涉及稀缺或不平衡数据集的任务中的适用性,从而大大提高模型的泛化能力。本文提出了一个更具启发性的分类法,该分类法涵盖了不同常见数据形式的数据增强技术,并通过一种统一的归纳方法对这些方法进行了分类。
May, 2024
通过融入对抗性和反对抗性扰动分布,增强样本的深度特征,适应性调整学习困难以适应每个样本的特征。同时,开发了一种基于元学习的框架,通过引入增强的效果并跳过显式的增强过程,优化分类器。在长尾学习、广义长尾学习、嘈杂标记学习和子种群转移学习等四种常见偏差学习场景中进行了广泛实验,实证结果表明该方法始终达到最先进的性能水平,突显其广泛适应性。
Apr, 2024
本文提出一种基于 ISDA 算法的新方法,通过元学习自动学习转换的语义方向来扩充极少数的分类数据样本,以达到解决单纯平衡训练集情况下典型有监督学习算法表现下降问题的目的,并在 CIFAR-LT-10 / 100、ImageNet-LT 和 iNaturalist 2017/2018 数据集上进行实验验证。
Mar, 2021
本文提出了一种以样本为基础的数据增强策略,采用元学习解决数据增强效果与样本间变异之间的平衡问题,并在 CIFAR-10/100、Omniglot、ImageNet 等数据集上通过实验证明了其优越性能。
Dec, 2020
本文介绍了深度学习算法在计算机视觉任务中的性能表现,以及数据增强技术对应对过拟合问题的应用。在这篇文章中,我们提供了数据增强技术的背景知识和综述,通过对现有的数据增强技术进行分类和比较,从而指导研究者选择适合自己的方法。我们还研究了数据增强技术的综合效果,得出结论可以显著提升图像分类、目标检测和语义分割的性能,我们提供了代码用于结果复现,并探讨了该领域未来的研究方向与挑战。
Jan, 2023