- 稀疏注意力神经网络联合训练的序列标记和分类
提出一种利用 LSTM 网络同时学习句子级别分类任务和序列标注任务的模型,通过语义相关性对单词进行加权的稀疏注意力机制,该方法在 ATIS 和 TREC 数据集上表现优于基准模型。
- LSTM 语言模型的正则化和优化
介绍了一种使用 DropConnect 和 NT-ASGD 等方法进行 LSTM 正则化优化的模型,在 Penn Treebank 和 WikiText-2 数据集上取得了最佳的困惑度表现,并探索了神经缓存对模型性能的影响。
- 基于骨架的全局上下文感知注意力 LSTM 网络的人类动作识别
本研究设计了一种全局上下文感知注意 LSTM 网络 (GCA-LSTM) 用于基于骨骼的动作识别,实现了对每个骨架序列的每帧中信息的有选择性的聚焦,具有递归注意机制的 GCA-LSTM 网络的性能优于其他模型,并在评估使用的五个骨骼基础动作 - ICML应用于心电图的 LSTM 可视化技术
本文探讨了四种可用于连续值时间序列的长短期记忆网络的可视化技术。在本文所分析的数据集上,我们发现最好的可视化技术是学习一个输入删除掩码,以最佳方式减少真实类别分数。针对来自 MIT-BIH 心律失常数据集的单导联心电图,我们展示了 LSTM - CVPR用变分自编码器生成多样性问题的创造力
本文提出了一种基于变分自动编码器和长短期记忆网络的视觉问题生成算法,能够生成大量多样的问题,实现了一种创造性的算法来生成逼真的问题。
- 将 Residual Networks 与 LSTMs 组合用于唇语识别
本文提出了一种端到端的深度学习架构用于字级视觉语音识别,该方法结合了时空卷积、残量和双向长短时记忆网络,该网络在 Lipreading In-The-Wild 基准上获得了 83.0 的字级准确率,相较于当前的最先进方法有 6.8 的绝对提 - 可视化和理解长短期记忆网络的课程学习
本文研究了课程学习对长短期记忆 (LSTM) 网络的影响,其中包括情感分析任务和与自然语言处理中序列预测任务相似的合成任务。实验表明,课程学习对 LSTM 的内部状态有积极影响,可以帮助构建有建设性的表示,特别是在训练数据有限的情况下可以发 - 使用 LSTM 网络预测域名生成算法
本文提出了一种基于长短期记忆网络的 DGA 分类器,可预测 DGAs 及其相关家族而无需事先进行特征提取,相较于同类方法,检测率提高了 20 倍,误报率减少到 1/10000。
- LSTMVis: 递归神经网络隐藏状态动态的可视化分析工具
本文介绍了 LSTMVIS,一种用于理解循环神经网络(尤其是长短时记忆网络)隐藏状态动态的可视化分析工具,可通过结构性注释和大数据集对状态变化进行匹配和对齐,来分析论述特定的隐藏状态特性和模式。
- deepMiRGene: 基于深度神经网络的 miRNA 前体序列预测
通过深度学习,本文提出了一种新的 miRNA 前体预测算法,deepMiRGene,该算法采用循环神经网络,具有自动学习数据特征的优点,并在三个基准数据集中表现出与当前最优工具相当的性能。
- ICML联想长短时记忆
通过基于复值向量的关联记忆,不增加网络参数的情况下增强循环神经网络的新方法,与全息缩减表示和长短时记忆网络密切相关。与全息缩减表示不同的是,该系统创建存储信息的冗余副本,从而实现了减少噪声的检索。实验证明在多个记忆任务上的学习更快。
- ACL自顶向下的树形长短期记忆网络
本文提出了一种名为 Tree Long Short-Term Memory (TreeLSTM) 的神经网络模型,它基于 LSTM 并专门用于预测树结构,同时通过明确表示左右句法相关性,提高了建模能力。在 MSR 句子完成挑战和依存分析重排 - 通过从网络图像的域转移,在视频中对细粒度动作进行时间本地化
本研究采用弱监督和跨领域转移学习的方法,结合深度卷积神经网络和长短时记忆网络,实现从未剪辑的网络视频中,对于精细的动作定位识别,并使用大量的数据集如 FGA-240 和 THUMOS 2014,得到了令人信服的结果。