ACLApr, 2019
用于稳健和高效数据的端到端语音翻译的关注传递模型
Attention-Passing Models for Robust and Data-Efficient End-to-End Speech Translation
Matthias Sperber, Graham Neubig, Jan Niehues, Alex Waibel
TL;DR通过多任务训练,提出了一种使用两个注意力机制的端到端可训练模型,用于直接语音翻译。该模型明显优于其他基线模型,并能更有效地利用辅助训练数据,特别适合于多任务训练。