Oct, 2023

众志成城:使用集成模型的逐轮一致性来抵御过拟合

TL;DR通过理论分析和经验验证,在深度神经网络中,过拟合发生时,分类器之间的差异性增加。受此结果的指导,我们提出了一种新的基于集成的预测方法,以对抗过拟合。该方法通过选择训练过程中最一致的预测结果来确定最终预测,有效消除了过拟合对模型泛化性能的不利影响,甚至在性能上超过了早停止方法。这种易于实现、可与任何训练方案和架构集成的方法,不需要额外的先验知识,因此是克服过拟合问题的实用和有用工具。