使用编码 LSTM 利用句子级信息进行语义槽填充
使用 BERT 嵌入 BiLSTM,发现将整个句子表示策略性地集成到每个单元格的句子表示中,可显著提高序列标注任务的 F1 得分和准确性。在包含 9 个数据集的序列标注任务中,涵盖了命名实体识别(NER)、词性标注和端到端基于方面的情感分析(E2E-ABSA),所有数据集的 F1 得分和准确率都有显著提高。
May, 2023
本文提出了一种基于循环神经网络和长短时记忆单元的句子嵌入模型,该模型能够自动侦测句子中关键词和主题,从而进行网络文档检索等艰难的语言处理任务,并在性能上显著优于现有的先进方法。
Feb, 2015
提出一种利用 LSTM 网络同时学习句子级别分类任务和序列标注任务的模型,通过语义相关性对单词进行加权的稀疏注意力机制,该方法在 ATIS 和 TREC 数据集上表现优于基准模型。
Sep, 2017
提出了 Leap-LSTM, 一种 LSTM 增强模型,可以动态跳跃读取文本以提高长文本处理效率。在对情感分析、新闻分类、本体分类和主题分类等任务进行实验评估后发现,相比标准 LSTM 模型,Leap-LSTM 能够更快速地读取文本并获得更好的预测性能和效率平衡。
May, 2019
本文提出了一种名为 LSTM-E 的新型统一框架,它可以同时探索 LSTM 和视觉 - 语义嵌入的学习,以有效生成自然语言描述的视频内容,实验表明 LSTM-E 在生成自然语言句子方面的表现优于目前为止的最佳表现,对于预测 SVO 三元组也超过了几种最先进的技术。
May, 2015
本研究提出了一种基于双向长短期记忆递归神经网络(BLSTM-RNN)的统一标记解决方案,可应用于各种标记任务,包括词性标注、分块和命名实体识别,该方法利用从无标记文本中学习的一组独立任务特征和内部表示,并不需要特定的任务知识或复杂的特征工程,在所有这三个标记任务中获得了几乎最先进的性能。
Nov, 2015
本文提出 C-LSTM 模型,结合了 CNN 和 RNN 的优点,用于句子表示和文本分类,实验结果表明 C-LSTM 比 CNN 和 LSTM 表现更好,可在这些任务中取得出色的性能。
Nov, 2015
通过设计新的双模型基于 RNN 的语义框架解析网络结构,使用两个相关的双向 LSTMs 联合执行意图检测和槽位填充任务,取得了关于意图准确性提高了约 0.5% 和槽位填充提高了 0.9% 的最新成果。
Dec, 2018
提出了一种基于双向 LSTM-RNN 的简单的序列句子编码器,用于多领域自然语言推理,并通过对词嵌入进行微调和快捷连接。该编码器在编码两个输入句子成两个向量后,使用矢量组合的分类器将这两个句子之间的关系标记为蕴含,矛盾或中立等。此方法在多领域自然语言推理方面取得了强大的表现,并在原始 SNLI 数据集上取得了最新的编码结果。
Aug, 2017
本文使用 LSTM 结构,将 match-LSTM 方法引入进行单词级联匹配以预测自然语言推理中的矛盾或中性关系标签,并在 Stanford 自然语言推理数据集上表现出比其他深度神经网络方法更高的 86.1% 的准确率。
Dec, 2015