该研究探讨了 mBERT 作为零 - shot 语言转移模型在跨语言任务上的运用,包括 NLI、文档分类、NER、POS 标注和依赖分析等五个任务。研究发现,mBERT 在每个任务上都具有竞争力,并考察了其使用策略、语言无关特征和影响跨语言传输的因素。
Apr, 2019
本文讨论了 Multilingual BERT (mBERT) 的语义属性,表明 mBERT 表征可以分为特定语言和语言中立两个部分,语言中立部分可以高准确度地对齐单词和检索句子,但尚不足以评估机器翻译质量。该研究揭示了构建更好的语言中立表征的挑战,特别是对于需要语义语言转移的任务。
Nov, 2019
本文研究了 Multilingual BERT 在多种语言下的性能表现,特别是在对低资源语言的表示质量方面的评估,结果表明 Monolingual BERT 和 mBERT 相比差距较大,而解决这个问题的关键在于更有效的预训练技术或更多的数据。
May, 2020
本文探讨了多语言 BERT 模型在语言编码、语法特性、语言生成等任务上的表现,发现该模型性能低于单语言模型,在某些情况下无法取代单语言模型,尤其在北欧语言方面表现不足。
Oct, 2019
该论文研究了多语言 BERT(mBERT)对 24 种不同语言的语法关系的分布,发现该分布与语言形式差异高度一致,提示 mBERT 以与语言多样性一致的方式正确编码语言,并揭示了跨语言传输机制的内在机理。
Dec, 2022
本研究提出一种简单而有效的方法,扩展多语言 BERT (E-BERT),使其可以为任何新语言提供帮助,并在 27 种语言上进行命名实体识别(NER)实验,结果表明我们的方法对已包含在 M-BERT 中的语言平均 F1 值提高了 6%,对新语言提高了 23%的 F1 值。
Apr, 2020
新颖的跨语言转移学习方法 - 从单语言模型到新语言,通过学习一个新的词嵌入矩阵来实现,该方法与现有不需要共享词汇表或联合训练的最先进的无监督多语言模型的跨语言分类基准测试表现相似。
使用一种新的层摘除技术和模型内部表示的分析方法,我们发现多语言 BERT 可看作两个子网络的堆叠:一个多语言编码器和一个任务特定的语言无关的预测器。编码器对于跨语言传递非常关键,在微调过程中大部分不变,而任务预测对传递影响很小,可以在微调期间重新初始化。
Jan, 2021
本研究旨在通过探究多种单语和跨语言表示学习方法,如掩码语言建模,翻译语言建模和双编码器翻译排名等,结合预训练的多语言模型来学习多语言句子嵌入,并成功将其用于多语言文本检索和机器翻译任务中。
Jul, 2020
本研究针对多语言 BERT 的序列到序列建模进行实验,证实其不需要训练就能够实现跨语言的转化,并提出一种无监督的分析方法,证明 Multilingual BERT 可以学习到一定的语言普遍规律。