研究表明,现有的数据增广和权重衰减等正则化技术会导致模型在某些类别上性能下降,从而证明需要研究不带类别偏差的新型正则化技术。
Apr, 2022
通过研究比较权值衰减、随机失活和数据增强等正则化技术在深度学习中的作用,提出了数据增强对于提高深度学习泛化性能的显著贡献。因此,建议不要使用权值衰减和随机失活,而要更加关注数据增强和其他归纳偏差来优化神经网络。
Jun, 2018
本文研究对抗训练的过拟合问题,提出利用数据增强和生成模型增加训练集大小,提高对抗鲁棒性,并在 CIFAR-10 数据集上取得最新成果,其中对于 Ε=8/255 的 l∞规范扰动,模型不使用外部数据时达到 64.20%的鲁棒准确性,超过了大多数先前使用外部数据的研究成果。
Mar, 2021
本研究提出了一种名为 RandAugment 的自动数据增强技术,可解决现有方法可能面临的训练复杂度和调整正则化强度的问题,并能显著提高神经网络模型的准确性和鲁棒性。
Sep, 2019
本文探讨了如何使用仅基于原始训练集的生成模型来人为地增加原始训练集的大小并提高对扰动的鲁棒性,并证明了即使添加非现实的随机数据也可以提高鲁棒性。在 CIFAR-10、CIFAR-100、SVHN 和 TinyImageNet 上进行了大量的绝对准确度改进,对于常见扰动的数据集,本文方法的结果优于大多数使用外部数据的先前工作。
Oct, 2021
本文研究减轻对抗训练中的过拟合现象,使用常见的数据增强方案,证明数据增强与模型平均结合可以显著提高鲁棒性,尤其是空间组合技术的效果最佳,最终在 CIFAR-10、CIFAR-100、SVHN 和 TinyImageNet 上得到了明显的性能提升。
Nov, 2021
本研究系统地研究了不同数据扩增技术在 GAN 训练中的有效性,并提供了关于如何扩增图像以改善生成图像保真度的见解和指南。我们还发现如果在真实图像和生成图像上使用扩增技术,即使只使用原始 GAN,也可以达到与最新技术成果相当的生成质量。如果结合对比损失和一致性正则化等其他扩增技术,生成图像的质量会更进一步提高。最后,我们使用一致性正则化和对比损失来提供了 CIFAR-10 条件生成的新的最先进结果。
Jun, 2020
为提高深度学习模型的性能和泛化能力,本论文提出了数据、损失函数和预测等三个方面的技术,以有效地利用小数据集进行训练。通过利用仅包含每类 50 张图像的 ImageNet 数据,我们取得了高准确率,并在 “数据有效计算机视觉挑战” 中排名第四。
Jul, 2020
本文提出一种自适应判别器增广机制,稳定有限数据中生成对抗网络的训练,无需改变损失函数或网络架构,适用于从头开始训练和调优现有 GAN 的情况,并在几个数据集上进行了实证分析,结果表明,仅使用少量的训练图像就可以获得好的结果,通常与 StyleGAN2 的结果相匹配,而使用的图像数量则少了一个数量级。此方法有望扩大 GAN 的应用领域,并发现 CIFAR-10 是一个有限数据基准,在此基础上改进了记录 FID(Fréchet Inception Distance) 由 5.59 到 2.42。
本文提出了一种用于数据增强的生成对抗网络 (DAGAN) 模型,其可帮助神经网络在数据不足的情况下提高泛化能力,实验结果显示在 Omniglot、EMNIST 以及 VGG-Face 数据集中,使用 DAGAN 后精度显著提高,我们同时还使用 DAGAN 增强了匹配网络 (Matching Networks) 的性能。
Nov, 2017