关键词neural encoder-decoder
搜索结果 - 9
- 从反例中学习连贯写作
本研究提出了一种通过利用负面例子来提高神经编码器 - 解码器自然语言生成模型的连续性的写作相关性(WR)训练方法,着重于语境和生成的句子的矢量表示,将其与负面例子进行对比,并将其与常识自然语言推理中的 Unlikelihood(UL)训练方 - 变分记忆编码器 - 解码器
本文介绍了通过使用外部记忆的混合模型 —— 变分记忆编码器 - 解码器(VMED),在保持一致性的同时引入变异的方法来生成对话中的话语。在各种对话数据集上的实验证明,VMED 在指标和素质评估方面均取得了显著的改进。
- 基于 CTC 的语音识别的分层多任务学习
使用分层多任务学习进行基于 CTC 的语音识别,添加辅助任务可提高识别结果表现,不同的实验变量,低资源下标准多任务学习表现优异,最佳结果为采用分层多任务学习与预训练相结合,可将错误率降低 3.4% 绝对值。
- 基于注意力神经网络的图到序列学习
本论文提出了一种新颖的通用端对端图到序列神经编解码模型,该模型使用改进的基于图神经网络的聚合策略产生节点和图嵌入,引入了注意机制,实现了更好地处理大型图,并在多项任务中取得了最先进的性能,显著优于现有的图神经网络、Seq2Seq 和 Tre - 使用未标注数据进行多任务训练,以实现端到端手语手指拼写识别
本研究提出了一个基于自动编码器和注意力机制的神经编码器 - 解码器模型用于视频中美国手语手指拼写字的自动识别,不需要帧级别的标签或手工特征,并且可以利用未标记数据来提高特征学习。该模型在无需训练标签的情况下,识别出视频序列中的手指拼写的单词 - EMNLP神经响应生成中的输出风格和主题控制
本文提出了神经编码器 - 解码器的语言生成模型中对输出风格和主题进行干预的简单灵活的训练和解码方法,通过基于选择性采样的解码方法和遵循性模型将神经生成过程分解为易于实现的子问题,同时通过一定限制方式和主题限制进行生成,该方法在人机交互任务中 - 使用神经增强学习修正语法错误
该研究提出了一种使用神经编码器 - 解码器模型和强化学习来进行语法错误校正的方法,并探讨了相较于传统的最大似然估计方法的优越性。研究表明,该方法在人工和自动评估指标上的表现都优于最大似然估计,达到了流畅度优化的语法错误校正数据集上的最先进的 - ACL鲁棒的增量神经语义图解析
该研究提出了一个基于神经编码器 - 解码器的转移句法分析器,可以作为关于最小递归语义的完全覆盖的语义图分析器,预测图与非词汇化谓词及其标记对齐共同。该分析器比注意力模型基准更准确,并且在 GPU 批处理方面比高精度基于语法的分析器快一个数量 - ICML粗细注意力下的图像转标记生成
该研究提出一种神经编码解码模型,采用可扩展的粗 - 精细注意机制将图片转化为表现标记,并在图像到 LaTeX 生成的上下文中进行评估。该方法通过引入真实世界渲染的数学表达式与 LaTeX 标记相配对的新数据集,展示了与 CTC 模型相比采用