ACLMay, 2022

通过联邦学习训练混合领域翻译模型

TL;DR本文利用联邦学习来处理复杂的混合域翻译模型训练任务,证明了在训练过程中进行轻微的修改并采用基于联邦学习的聚合方法,可以轻松地适应不同域,从而构建出与依赖于集中式训练技术的最先进基准相媲美的神经机器翻译引擎。同时,此研究还在五个数据集上进行了验证,并论述了 FL 和 NMT 如何互相受益。此外,研究者们还提出了一种新的技术,通过在 FL 更新期间选择具有影响力的参数来动态控制通信带宽大小,针对需要在 FL 双方之间交换非常大的 NMT 引擎的情况,这是一项重要的成果。