AAAISep, 2019

连接预训练与微调:面向端到端语音翻译的差距缩小

TL;DR本文提出使用 Tandem Connectionist Encoding Network 解决传统方法在 end-to-end 语音翻译中 fine-tuning 与 pre-training 之间巨大差距的问题,进而设计了两种简单且有效的方法保证语音编码器的输出和 MT 编码器的输入在语义表示和序列长度上一致。通过实验,我们的模型在一个大型基准数据集上优于基线 2.2 BLEU。