ICMLJul, 2023

可移动上下文:解决同声传译中的训练推理上下文不匹配问题

TL;DR提出了可移位上下文(Shiftable Context)方案,旨在保持训练和推断环境中段和上下文大小的一致性,即使存在由于同时翻译的流媒体特性而导致部分填充的段。在 MUST-C 数据集的三种语言对中,模型的 BLEU 得分显著提高。