Nov, 2022

机器翻译的并行注意力强制

TL;DR该研究引入了 attention forcing 的两种扩展来解决离散输出的任务中的挑战,包括 scheduled attention forcing 来自动开启和关闭 attention forcing,以及 parallel attention forcing 使训练并行化。实验结果表明,这些方法可以提高基于 RNN 和 Transformer 的模型的性能。