Feb, 2023

Attention Link: 一种高效的基于注意力机制的低资源机器翻译架构

TL;DR本文提出了一种新的架构,即注意力链接(AL),以在低训练资源情况下改善 transformer 模型表现,并在多个翻译任务中进行了实验,结果表明该注意力链接可以显著改善 BLEU 得分,实现了 37.9 的 BLEU 分数,且在 IWSLT14 de-en 任务中达到了新的 sota。