MA 3:无模型偏见对抗数据增强进行少样本学习
针对 few-shot 分类在训练和测试分布之间的域变化导致在测试上性能下降的问题,提出了通过任务增强来改善归纳偏置的鲁棒性,具体来说,采用对抗任务增强方法来生成具有挑战性的任务,可以提供简单的即插即用模块来提高元学习模型在跨域通用性中的性能。
Apr, 2021
本文介绍一种新的基于协方差保存的对抗增强网络模型,用于解决小数据训练下深度神经网络出现过拟合和灾难性遗忘的问题,其利用生成式对抗网络设计出的方法,可以生成逼真而多样化的样本,并显著提高了 ImageNet 基准测试结果。
Oct, 2018
本文提出了一种用于数据增强的生成对抗网络 (DAGAN) 模型,其可帮助神经网络在数据不足的情况下提高泛化能力,实验结果显示在 Omniglot、EMNIST 以及 VGG-Face 数据集中,使用 DAGAN 后精度显著提高,我们同时还使用 DAGAN 增强了匹配网络 (Matching Networks) 的性能。
Nov, 2017
提出了一种基于贝叶斯公式,利用广义蒙特卡洛期望最大化算法和生成对抗网络的方法,能更好地生成新的标注训练样本,并在 MNIST,CIFAR-10 和 CIFAR-100 的数据集中取得了优于现有数据增强方法和 GAN 模型的分类结果。
Oct, 2017
本研究提出了一种在没有人工注释的情况下通过解决部位内相似度和类内相似度之间分配匹配问题来确定最佳数据增强参数的优化框架,进而在医学图像分割中证明了其对于提升 few-shot 模型性能的有效性。
Jun, 2023
本文介绍了一种名为 AAL 的方法,通过数据增强和重复使用支持集来生成无需任何标签的无监督少样本元学习任务,以提高泛化能力,从而实现对小规模真实标注数据的有效训练。
Feb, 2019
本文提出了一种新的潜在数据增强方法,利用无监督的学习方式在低数据量的情况下,针对生成模型中容易发散的问题进行了优化,实现了有效而稳定的训练,并生成了高质量的样本。实验结果显示,该方法在少样例学习生成任务中取得了很好的效果。
Dec, 2021
该篇研究论文提出了一个基于循环迭代的数据增强方法,使用虚构的目标领域中存在 “困难” 样本的数据来训练学习模型,以在先前未知的目标领域上实现更好的一般化表现。该方法利用对抗性示例以及数据依赖正则化来提高模型性能。
May, 2018
本文提出了一种简单的方法,其几乎没有超参数或参数,并达到或甚至超过领域多个标准基准测试的性能,提供了一个新的基准,可以提出(并公平比较)新技术或改进现有方法。
Jan, 2022
本文介绍了几种新颖的深度学习训练技术,如广义模型无关课程学习方法和级联加和增强方法,它们不仅能够提高训练效率并改善深度网络训练过程中的优化平滑度、鲁棒性,而且还能够为计算机视觉任务提供更好的预测性能和模型稳健性。
Nov, 2022