BriefGPT.xyz
Ask
alpha
关键词
layer normalization
搜索结果 - 24
使用弱递归单元的深度神经机器翻译
本文提出一个名为简单循环 NMT 的新的循环神经网络机器翻译体系结构,该体系结构基于一类快速且弱循环单元,使用层归一化和多个注意力机制。在 WMT14 英德和 WMT16 英罗曼尼亚基准上的实验表明,我们的模型作为 LSTMs 的有效替代品
→
PDF
6 years ago
适用于语音识别的自适应神经声学建模动态层归一化
本文提出了一种新的动态层标准化技术(DLN),用于自适应神经声学建模,无需额外的自适应数据或说话人信息,并且适用于变化的扬声器和环境,并证明其在大词汇 ASR 实验中提高了语音转录准确性的有效性。
PDF
7 years ago
ICLR
规范化规范器:比较和扩展网络规范化方案
本文提出一种归一化技术 —— 分裂归一化法,包括批归一化和层归一化,并发现在使用这种技术时结合对激活函数的稀疏正则化可以提高卷积神经网络和循环神经网络的准确性。
PDF
8 years ago
层归一化
本文提出一种基于层归一化的深度神经网络训练新方法,能够有效稳定循环神经网络中的隐藏状态动态,其训练时间较之前的技术有大幅度降低。
PDF
8 years ago
Prev
Next