BriefGPT.xyz
大模型
Ask
alpha
关键词
multilingual masked language models
搜索结果 - 3
Belebele 基准测试:122 种语言变体的平行阅读理解数据集
我们提供了 Belebele,这是一个涵盖了 122 种语言的多选机器阅读理解(MRC)数据集。该数据集显著扩展了自然语言理解(NLU)基准的语言覆盖范围,在高、中、低资源语言中评估了文本模型,从而使得对模型性能的直接比较成为可能。通过这个
→
PDF
10 months ago
面向多语言掩码语言建模的大规模 Transformer
本研究探讨了跨语言语言模型预训练的有效性,并且提出了两个参数分别为 3.5B 和 10.7B 的大型多语言掩码语言模型,这两个新模型分别称为 XLM-R XL 和 XLM-R XXL,在 XNLI 中的平均准确率比 XLM-R 高 1.8%
→
PDF
3 years ago
深度双向跨语言 Transformer 在俄语语言上的应用
该论文介绍了适用于特定语言的多语言遮蔽语言模型的自适应方法,展示了从多语言模型到单语言模型的迁移学习可以显著提高阅读理解、情感分析等任务的性能,且多语言初始化的单语言模型可以大幅度降低训练时间。俄语的预训练模型已公开。
PDF
5 years ago
Prev
Next