基于循环神经网络的上下文感知自然语言生成
本篇论文介绍了一种新颖的响应生成系统,它可以在大量非结构化的 Twitter 会话上进行端到端的训练。该系统使用神经网络架构来解决在将上下文信息集成到经典统计模型中出现的稀疏性问题,从而允许系统考虑以前的对话话语。我们的动态上下文生成模型相对于基于上下文和非上下文敏感的机器翻译和信息检索基准具有一致的提高。
Jun, 2015
本文提出了一种将对话级别的语篇信息融入语言模型中的上下文语言模型,该模型在 Switchboard Dialog Act Corpus 上表现出比传统单轮 RNN 语言模型更好的性能。
Jan, 2017
本文介绍了一种基于循环神经网络的编码器 - 解码器结构,其中引入了一个基于 LSTM 的解码器来选择、聚合输入元素上产生的语义元素,并生成所需的话语,该提议的生成器可以联合训练句子规划和表面实现以生成自然语言句子,实验结果表明,所提出的生成器不仅在所有自然语言生成领域中一致优于先前的方法,而且还具有从新领域进行泛化和从多领域数据集中学习的能力。
Jun, 2017
本文提出了一种基于循环神经网络 (RNN) 的自然语言生成 (NLG) 新方法,其中在 RNN 计算之前应用了门控机制,以使得该模型能够生成适当的句子,并可通过共同训练句子规划和表面实现以生成自然语言响应。实验结果表明,该生成器在所有 NLG 领域中均表现出更好的性能。
Jun, 2017
本文介绍了一种上下文集成循环神经网络 (Context Integrated RNN, CiRNN) 模型,用于处理含有传感器数据和上下文信息的数据,在引擎健康预测领域的实验中表现出比现有模型 39% 和 87% 的示范性改进,特别是在使用非对称分数函数作为测量指标时。
Jan, 2023
通过神经机器翻译技术,本文提出并评估了一种新的方法,用于生成保持主题一致的餐厅评价,测试表明该方法具有极高的检测难度,同时本研究设计了高效的检测工具,证明虚假评论的自动检测仍然可行。
May, 2018
本文提出了一种基于概率模型的搜索建议方法,使用新颖的分层递归编解码器架构,能够考虑任意长度的查询序列,实现上下文感知,解决数据稀疏问题,在下一个查询预测任务中优于现有上下文感知方法,并且可以用于许多其他应用。
Jul, 2015
我们提出了一种新的上下文递归神经网络,可以在输入和输出层中考虑相关信息,将上下文嵌入与项目嵌入相结合,并在模型动态性中将隐藏单元转换参数化为上下文信息的函数,从而在下一事件预测任务上显示出良好的提高效果。
Jun, 2017
本文研究了基于循环神经网络(RNN)的提及检测系统的鲁棒性及其在信息提取中的应用,表明在英语的普通或跨领域的情况下,RNNs 不仅在通用情况下优于之前报告的最佳系统(最多可达 9%的相对错误降低),而且在荷兰语中表现出的命名实体识别相似任务中,RNNs 比传统方法显著优越(最多可达 22%的相对错误降低)。
Feb, 2016