BriefGPT.xyz
大模型
Ask
alpha
关键词
ml50 benchmark
搜索结果 - 1
可扩展的跨语言预训练和微调技术实现多语言翻译
本文证明多语言预训练可以通过多语言微调来创建多语言翻译模型,并且证明在不失性能的前提下,预训练模型可以扩展到更多语言。此外,作者基于 ML50 数据集表明,多语言微调相较于其他训练方式有显著提升。
PDF
4 years ago
Prev
Next