卷积神经网络上数据增强的进一步优势
本文研究数据增强在图像分类中的应用,对比了多种增强技术,包括传统的裁剪、旋转和翻转以及使用GAN生成不同风格的图像,并提出了一种名为神经增强的方法,通过训练神经网络自学习增强,以提升分类器性能,对该方法在不同数据集上表现的优劣进行了讨论。
Dec, 2017
通过研究比较权值衰减、随机失活和数据增强等正则化技术在深度学习中的作用,提出了数据增强对于提高深度学习泛化性能的显著贡献。因此,建议不要使用权值衰减和随机失活,而要更加关注数据增强和其他归纳偏差来优化神经网络。
Jun, 2018
本研究研究了数据增强对目标检测的影响和作用,探究了深度学习模型训练中利用学习的特殊数据增强策略来优化模型的表现,并在COCO数据集上证明了其有效性,最终提高了50.7 mAP的检测精度。
Jun, 2019
利用数据增强作为正则化方式,我们从解析角度重新考虑了数据增强在深度神经网络中的泛化问题,并发现它显著降低了模型泛化误差,但同时也导致略微增加了经验风险。使用较少的数据对完整增强的数据进行训练能够帮助模型更好地收敛于更好的区域,从而进一步提高准确性。
Sep, 2019
本文旨在研究如何纠正使用数据增强技术训练深度神经网络时所导致的图像偏差问题,作者提出了一种辅助BatchNorm方法,实验结果表明,使用弱增强训练的BatchNorm参数可以明显提高CIFAR-10、CIFAR-100和ImageNet等常见图像分类基准测试的模型性能,同时,研究还揭示了使用不同BatchNorm参数所带来的精度和鲁棒性之间的基本权衡关系。
Oct, 2020
本文提供对数据增强技术中图片混合和删除方法的全面调查和分类,包含其强项、局限性、基本原理和应用, 并讨论其面临的挑战和未来研究方向,申明提供数据集和代码供评估。
Jun, 2021
本文提出了在中间神经网络层引入数据增强以改善卷积神经网络不适用于少量像素旋转或平移的问题,并证明该方法比已有的两种方法获得更好的精度和平均翻转比。
Feb, 2022
本文系统地综述了不同的图像数据增强方法,提出了分类学,分析了这些方法的优点和局限性,以及在三个典型的计算机视觉任务上所做的大量实验,包括语义分割,图像分类和物体检测。最后,我们讨论了数据增强面临的挑战以及未来的研究方向,以提出一些有用的研究指导。
Apr, 2022
本文旨在评估不同数据集上的数据增强技术对于不同神经网络的性能影响,显示出一种把数据增强技术和深度学习模型架构相结合的方法可提高深度学习任务的性能。
May, 2022
本文介绍了深度学习算法在计算机视觉任务中的性能表现,以及数据增强技术对应对过拟合问题的应用。在这篇文章中,我们提供了数据增强技术的背景知识和综述,通过对现有的数据增强技术进行分类和比较,从而指导研究者选择适合自己的方法。我们还研究了数据增强技术的综合效果,得出结论可以显著提升图像分类、目标检测和语义分割的性能,我们提供了代码用于结果复现,并探讨了该领域未来的研究方向与挑战。
Jan, 2023