本文介绍了一种自动搜索图像数据增强策略,使用神经网络在目标数据集上产生最高准确性,并在 CIFAR-10,CIFAR-100,SVHN 和 ImageNet 数据集上实现了最先进的准确性,同时找到的增强策略可在不同数据集间转移学习。
May, 2018
为了避免生成数据不敏感的特点,同时获取更具普适性的表示,我们提出了一种辅助自监督损失 AugSelf,它学习两个随机样本之间的增强参数差异,并可以轻松地纳入最先进的表征学习方法中,稳定提高了监督和无监督方法的表征迁移性能。
Nov, 2021
通过自动化数据增强方法 AutoAugment, 本文实现了可用于自然语言处理任务的优化扰动操作,并且在对话生成等任务中取得了显著的性能提升。
Sep, 2019
通过自监督学习,本文提出的单一统一任务学习方法能够有效地提高模型的准确性,并且在各种全监督学习场景下均具有广泛的适用性。
Oct, 2019
本研究提出一种新的辅助任务 —— 旋转预测,用于加强现有最先进的基于相似性和对比性方法,并在多个数据集上证明了我们的方法能显着提高性能。
Oct, 2022
通过引入背景增强技术,加强自监督学习中对物体的语义关注, 系统调研发现其在多个自监督学习任务中均有大幅提升效果,并成为有监督学习的有力竞争者,并在无监督显著性检测方面取得进展。
Mar, 2021
本文提出了一种以样本为基础的数据增强策略,采用元学习解决数据增强效果与样本间变异之间的平衡问题,并在 CIFAR-10/100、Omniglot、ImageNet 等数据集上通过实验证明了其优越性能。
Dec, 2020
本文研究数据扩增的方法及其在计算机视觉任务中的效果,提出了 UniformAugment,一种无需搜索阶段即可实现自动数据扩增的方法, 并通过标准的数据集和经典模型证明其有效性和高效性。
Mar, 2020
本研究提出了一种名为 RandAugment 的自动数据增强技术,可解决现有方法可能面临的训练复杂度和调整正则化强度的问题,并能显著提高神经网络模型的准确性和鲁棒性。
利用对抗性训练和自监督技巧,通过任务的表示学习促进判别器学习有意义的特征表示的全无监督学习方法产生高质量的图像。在相同的条件下,自监督生成对抗网络的表现与有标记数据的生成网络相似。同时,我们还演示了该方法可扩展到一个无条件的图像集中,以实现 FID 为 23.4.
Nov, 2018