BriefGPT.xyz
Ask
alpha
关键词
attention-based sequence-to-sequence model
搜索结果 - 2
基于解码历史的自适应控制注意力的神经机器翻译
提出了一种基于解码历史的自适应注意力控制机制,可以解决注意力在缺乏解码历史信息的情况下导致频繁重复的问题,在中英文和英越翻译任务上均表现出较高的翻译准确性,可生成较少重复的翻译。
PDF
6 years ago
基于神经注意力模型的汉语韵律诗歌生成
本文利用基于注意力机制的序列到序列模型生成中国宋词。通过双向 LSTM 模型对提示句进行编码,再通过基于注意力的 LSTM 模型预测整个倚仗,可以通过输入线索的细微结构来规范化生成过程。研究了几种技术来改进模型,包括全局上下文整合,混合式风
→
PDF
8 years ago
Prev
Next