关键词cross-lingual pre-trained models
搜索结果 - 3
- LayoutXLM: 多模态预训练用于多语种视觉丰富文档理解
本文提出了一种基于 LayoutXLM 的多模态预训练模型,用于多语言文档理解,并在名为 XFUND 的多语言表单理解基准数据集上进行了验证,结果表明 LayoutXLM 模型在跨语言预训练方面优于现有的 SOTA 模型。
- ICLR跨语言学习通用表征
本文介绍了一种基于 Hierarchical Contrastive Learning 的方法,用于学习句子级别的跨语言表示方法,在 XTREME 任务和机器翻译任务中实验表明,该方法可以显著提高模型准确性。
- XGLUE:跨语言预训练、理解和生成的新基准数据集
本文介绍了 XGLUE 数据集,它是一个可用于训练大规模跨语言预训练模型和评估其在多样的跨语言任务中表现的新的基准数据集。与 GLUE 不同的是,XGLUE 提供了 11 种多样化的任务来覆盖自然语言理解和生成等问题,同时为每个任务提供了多