BriefGPT.xyz
Ask
alpha
关键词
dying gradient problem
搜索结果 - 1
TaLU: 一种混合 Tanh 和 ReLU 的激活函数,用于增强神经网络
本文研究使用一种名为 TaLU 的激活函数来提高深度学习模型的分类准确度,该激活函数是 Tanh 和 ReLU 的组合,能够缓解 ReLU 的梯度消失问题,并在 MNIST 和 CIFAR-10 数据集上实现了 0%至 6%不等的准确度提高
→
PDF
a year ago
Prev
Next