May, 2024

用平滑 l0 正则化的熵误差函数的 SGD 方法用于神经网络

TL;DR基于熵误差函数的神经网络收敛速度慢,容易被困在局部最小值或错误的饱和问题中。为了解决这个问题,我们提出了一种新的带有平滑 l0 正则化的熵函数,用于前馈神经网络,并通过实证评估表明该算法能够大幅提高神经网络的预测性能,并且相比于基线模型,我们的算法可以产生更精确的分类结果。