BriefGPT.xyz
大模型
Ask
alpha
关键词
cross-lingual pre-training
搜索结果 - 4
ERNIE-Code: 面向编程语言的跨语言预训练技术(超越英语中心)
本文介绍了一种面向多语言自然语言和编程语言的语言模型 ERNIE-Code,提供了通用跨语言预训练的两种方法,取得了很好的性能表现,包括零样本提示的跨语言代码摘要和文本翻译。
PDF
2 years ago
零样本跨语言图像检索与标记
本论文探讨采用跨语言预训练的零样本方法来学习多模态表示,提出建立跨语言图像检索模型的简单实用方法,并引入了一种新的目标函数来测试多语言 MSCOCO2014 字幕测试数据集(XTD10)的零样本模型性能,证明跨语言模型可用于零样本的下游任务
→
PDF
3 years ago
零样本跨语言图像检索
该论文介绍了一种使用跨语言预训练进行零 - shot 学习的多模式语言和视觉问题解决方法,它可以用于构建跨语言图像检索模型和改进文本嵌入聚类,并在多语言环境下进行评估。
PDF
4 years ago
EMNLP
Unicoder:通过多语种交叉训练预训练的通用语言编码器
Unicoder 是一种机器学习算法,可对自然语言进行编码,进而实现输出不同语言的任务。该方法提出了三种新的跨语言预训练任务,包括跨语言词汇恢复、跨语言近义词分类和跨语言掩码语言模型。作者还发现在多种语言上进行微调可以进一步提高性能。作者在
→
PDF
5 years ago
Prev
Next