关键词cross-lingual consistency regularization
搜索结果 - 3
- 提升多对多多语言机器翻译的方法与大型语言模型
本文研究了机器翻译的训练模型,从学习具有广泛平行语料的神经机器翻译模型逐渐转变为在预训练的多语言大型语言模型上进行指导微调,并重点关注增强多对多多语言翻译性能和零 - shot 翻译方向的。我们证明了在指导微调过程中采用的提示策略对零 - - 跨语言一致性正则化学习多语句子表示
MuSR 是一种支持 220 多种语言的全能多语种句子表示模型,通过使用数十亿个英文为中心的平行语料库,采用使用跨语言一致性规则化技术的多语言 NMT 框架,以训练多语言 Transformer 编码器,并采用辅助 Transformer - ACL利用跨语言一致性正则化提升零样本多语言神经机器翻译
本文介绍了一种跨语言一致性正则化方法 CrossConST,用于在多语言神经机器翻译模型中实现零 - shot 翻译,以实现不同语言之间的普适表示,并提高翻译性能。实验结果证明 CrossConST 能够提高模型的翻译性能并降低句子表示间的