BriefGPT.xyz
大模型
Ask
alpha
关键词
hard-attention models
搜索结果 - 1
神经序列到序列架构在自动后编辑中的探索
本文研究了多种神经架构用于机器翻译自动后编辑任务。研究内容包括:将 $mt$ 和 $src$ 结合在一起直接对目标进行建模的端到端模型、硬注意力模型和以上两种结合。结果表明:将多个神经架构和硬注意力相结合,所构建的双注意力模型在自动后编辑任
→
PDF
7 years ago
Prev
Next