BriefGPT.xyz
Ask
alpha
关键词
batch layer normalization
搜索结果 - 1
批量层归一化,一种用于 CNNs 和 RNN 的新归一化层
介绍了一种新的归一化层 Batch Layer Normalization(BLN),可以在深度神经网络中减少内部协变量偏移问题,通过适应性的权衡 mini-batch 和特征标准化,并且具有比批归一化和层归一化更快的收敛速度。
PDF
2 years ago
Prev
Next