Sep, 2019

数据增强再探讨:重新审视干净数据和扩充数据之间的分布差距

TL;DR利用数据增强作为正则化方式,我们从解析角度重新考虑了数据增强在深度神经网络中的泛化问题,并发现它显著降低了模型泛化误差,但同时也导致略微增加了经验风险。使用较少的数据对完整增强的数据进行训练能够帮助模型更好地收敛于更好的区域,从而进一步提高准确性。