BriefGPT.xyz
Jun, 2020
神经网络分类任务中使用平方误差与交叉熵训练的结构评估
Evaluation of Neural Architectures Trained with Square Loss vs Cross-Entropy in Classification Tasks
HTML
PDF
Like Hui, Mikhail Belkin
TL;DR
本文提供证据表明,对于NLP和ASR任务,使用方块损失函数进行神经网络训练,可以获得比交叉熵更好的效果,并且可以提高计算资源的利用率。我们认为,使用方块损失函数需要成为现代深度学习最佳实践的一部分,与交叉熵在平等基础上竞争。
Abstract
Modern
neural architectures
for classification tasks are trained using the
cross-entropy loss
, which is believed to be empirically superior to the
→