Feb, 2020

LAVA NAT: 一种无自回归翻译模型,具备环视解码和词汇关注机制

TL;DR本文提出了两种新方法,即 Look-Around 策略和 Vocabulary Attention 机制,以解决非自回归翻译(NAT)模型中常见的多模态问题,并使用动态双向解码方法加速 LAVA 模型的推理过程,从而显著减少了推理时间成本,同时保持了高质量的生成输出与竞争性能的表现。