BriefGPT.xyz
大模型
Ask
alpha
关键词
attention link
搜索结果 - 1
Attention Link: 一种高效的基于注意力机制的低资源机器翻译架构
本文提出了一种新的架构,即注意力链接(AL),以在低训练资源情况下改善 transformer 模型表现,并在多个翻译任务中进行了实验,结果表明该注意力链接可以显著改善 BLEU 得分,实现了 37.9 的 BLEU 分数,且在 IWSLT
→
PDF
a year ago
Prev
Next