ACLMay, 2023

面向多语言神经机器翻译的适配器通信高效联邦学习

TL;DR本文提出了一种新的联邦式多语言神经机器翻译框架。相比中心化训练,该框架通过模型同步,只传输轻量化的适配器模块,降低了模型同步的通信代价。作者同时探索了各种聚类策略来减少冲突,并在适配器模块上进行了修剪,成功地提出了通信效率。实验结果表明,该框架在实现相当甚至更好的性能的同时,可以将通信代价降低 98% 以上。