ACLMay, 2024

基于字节的神经机器翻译中整合多尺度上下文信息

TL;DR在神经机器翻译(NMT)模型中,子词标记化是一种常见的词汇构建方法,但是越来越复杂的任务使其劣势显现。我们提出了多尺度上下文化(MSC)方法,它通过学习不同隐藏状态维度上的不同尺度的上下文化信息,并利用注意力模块动态地集成多尺度的上下文化信息,以解决这些问题。实验证明,MSC 在多语言和领域外的场景中明显优于子词和其他基于字节的方法。