BriefGPT.xyz
大模型
Ask
alpha
关键词
translation language modeling
搜索结果 - 2
ACL
多语言 BERT 模型预训练后对齐
本研究提出了一种简单的方法,作为预训练后对多语种上下文嵌入进行对齐的步骤,以提高预训练模型的零 - shot 跨语言迁移能力。该方法通过最近提出的 Translation Language Modeling 目标在词级别上对嵌入进行对齐,并
→
PDF
4 years ago
ACL
语言无关的 BERT 句子嵌入
本研究旨在通过探究多种单语和跨语言表示学习方法,如掩码语言建模,翻译语言建模和双编码器翻译排名等,结合预训练的多语言模型来学习多语言句子嵌入,并成功将其用于多语言文本检索和机器翻译任务中。
PDF
4 years ago
Prev
Next