通过引入三种 MGU 模型的变种设计,本文在简化 MGU 设计的基础上降低了遗忘门动态方程的参数数量,用更少的参数实现跟 MGU 相似的准确度,在序列数据的测试上表现出优秀的性能,其中 MGU2 模型甚至比 MGU 在数据集上表现更好,能替代在递归神经网络中常用的 MGU 或 GRU 模型。
Jan, 2017
本文比较了不同类型的递归神经网络中的递归单元,特别是实现门机制的更加复杂的递归单元,例如长短时记忆(LSTM)单元和最近提出的门控循环单元(GRU),我们在复调音乐建模和语音信号建模的任务中对这些递归单元进行了评估,实验证明这些先进的递归单元确实比传统的 tanh 单元更好,同时我们发现 GRU 与 LSTM 相当。
Dec, 2014
该研究提出了一种适用于循环神经网络的门单元,名为 Minimal Gated Unit(MGU),其结构简单,可与 GRU 相媲美,但参数更少且训练更快,适用于各种序列数据应用。
Mar, 2016
本文提出了一种简化的 Gated Recurrent Units 架构,用于语音识别。通过去除重置门和引入 ReLU 激活函数,我们的实现在训练时间上提高了 30%以上,并在不同任务、输入特征和噪声条件下获得了相对于标准 GRU 持续改善的识别性能。
Sep, 2017
使用连续时间分析,我们对 Gated recurrent units (GRUs) 的内部运作获得了直观的理解。我们发现了一些意想不到的动态特征,同时我们无法训练 GRU 网络产生连续的吸引子,这也是生物神经网络存在的假设。
Jun, 2019
本文通过 Gated Recurrent Unit 对 2013 年京都大学蜜罐系统的网络流量数据进行二进制分类,将线性支持向量机替换为 GRU 模型最终输出层的 Softmax 函数, cross-entropy 函数也将替换为基于边缘的函数,结果显示 GRU - SVM 模型的性能相对较高,并且 SVM 在预测时间上优于 Softmax。
本篇论文提出了一种名为 Light GRU 的改进型 GRU 神经网络模型,通过删除 reset gate 和使用 ReLU 激活函数,从而提高自动语音识别任务的训练效率和识别准确率。
Mar, 2018
通过 Bayesian optimization 方案优化模型超参数,我们展示了统计循环单元 (SRU) 相比于门控循环神经网络 (LSTM) 和门控 GRU 的高效性。
Mar, 2017
本文使用可视化技术研究了 LSTM 和 GRU 在语音识别任务中的行为,并提出两种简单而有效的网络结构修改:LSTM 中的懒惰单元更新和残差学习的快捷连接。两种修改都使得网络更加易于理解和强大。
Sep, 2016
通过添加残差连接并低秩、稀疏和量化,FastRNN 和 FastGRNN 算法在精准度与资源消耗之间取得了平衡,使 FastGRNN 在 KB 级别且极度资源受限的 IoT 微控制器上实现了准确识别语音唤醒词 ″Hey Cortana” 的目标。
Jan, 2019