关键词cross-lingual representations
搜索结果 - 6
- 跨语言文档表征的映射转换器增强嵌入
使用 Transformer Leveraged Document Representations(TLDRs)在不同语言之间实现文档表示,并通过评估多个预训练的多语言 Transformer 模型确定最佳映射方法,结果显示跨语言表示通过预 - ACL跨语言视觉预训练用于多模式机器翻译
本文结合视觉和语言的跨语言预训练方法,使用三重并行视觉和语言语料库进行预训练,并说明所学习的基于视觉的跨语言表示对于多模式机器翻译的性能具有领先优势。
- 从多语言 BERT 感知单词级别翻译
本研究探讨了多语言 BERT(mBERT)的跨语言表示,并提出了两种简单的方法来暴露其卓越的翻译能力。研究结果表明,mBERT 学习表示既包含语言编码组件,又包含抽象的跨语言组件,并明确确定了一种 mBERT 表示中的经验语言识别子空间。
- 诱导语言无关的多语言表示
本研究提出三种方法以提高跨语言表示的效果,包括将目标语言的向量空间重新对齐到源语言,去除语言特异性的均值和方差,以及通过去除形态和句子重新排序来增加跨语言相似性。研究发现,这些方法联合使用可以降低跨语言转移障碍。
- EMNLP零 - shot 依赖句法分析的跨语言 BERT 转换
本文利用公共预训练的 BERT 模型提出了学习跨语言表征在上下文空间中的新方法 ——Cross-Lingual BERT Transformation (CLBT),其中通过线性变换将训练不同语言的上下文化嵌入与上下文词对齐并结合实验证明了 - 跨语言词嵌入模型调查
本文综述了跨语言词向量模型的具体类型,比较它们的数据需求和目标函数,并讨论了如何对跨语言词向量模型进行评估和未来研究的挑战。