使用柔性课程学习有噪标签和未编辑的无标签数据的条件 GAN
该论文提出了一种基于无标签干扰数据集训练深度卷积神经网络的新型框架,并使用一个无向图模型来描述干净和嘈杂标签之间的关系,在监督学习过程中学习这个模型。该模型在图像标注问题上应用,并在 CIFAR-10 和 MS COCO 数据集上展示出有效的标注效果和在训练中实现了减少标签噪声的效果。
May, 2017
本文提出了三种新的课程学习策略,通过使用现有技术的图片难度预测器估计难度分数,分别将训练集图片分成逐渐困难的批次、为判别器引入考虑真实图片难度分数的课程损失函数以及从不断进化的分布中采样易于处理的图像,实验证明相较于传统的训练方法,在图像生成和转换任务中,这些策略能更快地收敛且产生更好的结果,例如使用最佳课程学习策略训练的经过谱归一化的 GANs 在 CIFAR 图像生成任务中,能以 25.0% 的比例成功欺骗人类标注者,而使用传统训练方法的 GANs 只有 18.4%,类似地,在图像转换中,使用课程学习训练的 CycleGAN 喜好程度为 40.5%,而基于传统训练的 CycleGAN 只有 19.8%,39.7% 的情况被视为平局。
Oct, 2019
本文提出了 Robust Conditional GAN (RCGAN) 和 RCGAN-U 模型,前者利用引入噪声的方法,生成具有干净标签的样本来训练有强鲁棒性的条件生成器,后者则同时学习噪声模型和生成器以达到更好的效果。实验结果表明,两种方法都显著优于基线方法,并且 RCGAN-U 的性能接近于 RCGAN 的性能表现。
Nov, 2018
该论文提出了一种基于课程学习的弱监督学习方法,通过对大规模网络图像数据进行无人工标注的深度神经网络训练,实现对大量噪声数据和数据分布不均等问题的有效处理和噪声标签的负面影响的显著降低,构建一种新的课程学习架构,使得使用高噪声标签的图像作为一种正则化策略可以惊人地提高模型的泛化能力,在 WebVision、ImageNet、Clothing-1M 和 Food-101 等四个基准测试中取得了最先进的性能,多模型集成的结果在 1000 种类别分类中取得了 5.2% 的 top-5 错误率,相对误差率超过 50%。
Aug, 2018
通过使用混合模型从局部损失分布学习样本权重,我们提出了一种利用合成样本训练模型的框架来减轻噪音标签影响,并通过逐渐修正噪音标签估计软目标,得到了更为准确的近似真实标签和更加独立和清晰界定的聚类,实验证明我们的方法在两个基准数据集 (CIFAR-10 和 CIFAR-100) 及两个大规模真实世界数据集 (Clothing1M 和 Webvision) 上优于现有技术方法且具备可靠的学习表达能力。
Jun, 2024
通过使用先进的数据增强方法 RandAugment 和后向翻译来取代简单噪声操作,在大量无标签数据上进行一致性训练,从而在六种语言和三个视觉任务中带来了显著的改进,并在 CIFAR-10 数据集上超过了所有先前的方法,实现了错误率为 5.43,只使用了 250 个示例。
Apr, 2019
采用课程学习策略和稀疏样本可改善神经网络学习效率,对于一个混合了稀疏和密集输入的数据分布,采用应用在稀疏样本中的 curriculum noisy-GD/SGB 算法训练的 2 层 ReLU 神经网络可在有限的步数内学习到足够大次数的奇偶类型问题,而对于任何通过 noisy-GD/SGB 算法训练的神经网络,无论宽度或深度的大小,都需要额外的步骤才能学习,这可以通过理论和实验得出的结论加以支持。
Jun, 2023
本文提出一种噪声容忍的训练算法,其中在传统梯度更新之前进行元学习更新来模拟实际训练。通过生成合成噪声标签进行训练,该元学习方法训练模型,以便在使用每个设置的合成噪声标签进行一次梯度更新后,模型不会过度拟合特定的噪声,从而提高深度神经网络的性能。
Dec, 2018
通过理论和实验,我们证明了半监督学习可以显著提高对抗性鲁棒性,实验结果表明在 CIFAR-10 上使用 500k 未标记图像,使用自我训练方法可以超过最先进的对抗性鲁棒的准确度。在 SVHN 上,使用模型自身的额外的训练集可以提高 4 至 10 个百分点,与使用额外标签的提高量相差不大。
May, 2019
本文介绍了一种名为 Curriculum GANs 的课程学习策略,使用该策略可提高生成对抗网络(GAN)的鉴别器的强度,进而使学习任务对于生成器更具挑战性,我们证明这一策略对于获得图像生成方面的最新成果非常重要。我们还展示证据表明,这一策略可以广泛应用于其他数据模态的 GAN 训练的改进。
Jul, 2018