Oct, 2023

KAKURENBO:深度神经网络训练中的自适应样本隐藏

TL;DR本文提出了一种方法,通过在训练深度神经网络时隐藏最不重要的样本,从而提高效率,即减少训练成本。通过在训练过程中使用损失和预测置信度的信息,我们根据样本对整体学习过程的贡献动态地在给定的 epoch 中找到要排除的样本,而不会显著降低准确性。实证结果表明,在各种大规模数据集和图像分类与分割直接使用的模型上,尽管基于替换的重要性抽样算法在大型数据集上效果不佳,我们的方法在仅将准确性降低 0.4% 的情况下,可以将总训练时间缩短高达 22%。可在此 https URL 获取代码。