Jun, 2020

回顾性损失:回顾以提高深度神经网络训练

TL;DR介绍了一种新的回顾性损失以提高深度神经网络模型的训练,通过利用训练期间过去模型状态中可用的先前经验,将当前训练步骤的参数状态推向最优参数状态,同时将其与之前训练步骤的参数状态分离。实验结果表明,这种方法在图像、语音、文本等领域以及不同的任务和架构中均可提高性能。