ICMLJul, 2023
可移动上下文:解决同声传译中的训练推理上下文不匹配问题
Shiftable Context: Addressing Training-Inference Context Mismatch in Simultaneous Speech Translation
Matthew Raffel, Drew Penney, Lizhong Chen
TL;DR提出了可移位上下文(Shiftable Context)方案,旨在保持训练和推断环境中段和上下文大小的一致性,即使存在由于同时翻译的流媒体特性而导致部分填充的段。在 MUST-C 数据集的三种语言对中,模型的 BLEU 得分显著提高。