跨语言调整上下文词表示对零 - shot 迁移的影响
该研究探讨了 mBERT 作为零 - shot 语言转移模型在跨语言任务上的运用,包括 NLI、文档分类、NER、POS 标注和依赖分析等五个任务。研究发现,mBERT 在每个任务上都具有竞争力,并考察了其使用策略、语言无关特征和影响跨语言传输的因素。
Apr, 2019
本文论述了跨语言零 - shot 迁移的问题,并通过对 XLM-RoBERTa 进行实验,研究机器阅读理解、情感分析和句子嵌入对跨语言迁移的影响。发现跨语言迁移在语义文本相似度检验(STS)中表现最强,情感分析次之,机器阅读理解中表现最弱。
Jan, 2021
本文分析了不同形式的跨语言监督和各种对齐方法对 Multilingual BERT 在零 - shot 设置下的转移能力的影响,比较了平行语料库 vs. 字典导向的监督和旋转 vs. 微调对齐方法,针对两个任务(名称实体识别和语义槽填充),我们评估了不同对齐方法在八种语言上的性能,并提出了一种新的规范化方法,该方法不断改进基于旋转的对齐性能,特别是远距离和在语言类型上不同的语言。此外,我们还发现对于任务和转移语言的接近程度,不同的对齐方法存在偏差,平行语料库的监督力度通常优于字典对齐。
Sep, 2020
提出了一种测量和加强上下文嵌入对齐的程序,证明其在分析和改进多语言 BERT 方面非常有用。在我们的对齐程序之后,BERT 在零 - shot 任务中表现显著提高。使用上下文版本的 Word Retrieval 任务,我们发现 BERT 存在系统性缺陷,在我们的对齐程序下得到了纠正。这些结果支持上下文对齐作为理解大型多语言预训练模型的一个有用概念。
Feb, 2020
本论文展示了在辅助支点语言中提供少量注释数据可以更好地选择用于零 - shot 跨语言迁移的 fine-tuned models,并提出一种基于机器学习的方法用于模型选择,该方法使用 fine-tuned 模型的内部表示来预测其跨语言能力。在广泛的实验中,我们发现这种方法比使用英文验证数据一直可以跨越二十五种语言(包括八种低资源语言)选择更好的模型,并且通常可以达到使用目标语言开发数据进行模型选择的结果
Oct, 2020
本文提出了一种通过对抗样本和零样本跨语言转移失败案例进行联系的学习策略,采用对抗性训练和随机平滑这两种方法来训练多语言编码器更加强健的模型,实验结果表明,强健训练可以提高零样本跨语言数据分类任务中的性能,尤其在输入语句属于两种不同语言的情况下,改进更为显著。
Apr, 2021
本研究提出了一种简单的方法,作为预训练后对多语种上下文嵌入进行对齐的步骤,以提高预训练模型的零 - shot 跨语言迁移能力。该方法通过最近提出的 Translation Language Modeling 目标在词级别上对嵌入进行对齐,并通过对比学习和随机输入洗牌在句子级别上进行对齐。在下游任务的微调中,使用英语进行句子级别的代码转换。在 XNLI 上,我们的最佳模型(从 mBERT 初始化)在零 - shot 设置上比 mBERT 提高了 4.7%,在使用少于 18%的相同平行数据和 31%的模型参数的情况下,实现了与 XLM for translate-train 相当的结果。在 MLQA 上,我们的模型胜过比我们多 57%参数的 XLM-R_Base。
Oct, 2020
分析了 massively multilingual transformers 在零射击跨语言场景中的局限性,并表明在资源匮乏和对比较遥远语言的情况下通过多语言转换的跨语言转移实际上不太有效。通过几个低级和高级自然语言处理任务的实验,确立了源语言和目标语言之间的语言相似度以及目标语言的预训练语料库的大小与转移性能之间的相关性。另外,研究表明通过在源语言上调整细节,再在目标语言上进行少量微调的 few-shot transfer 在多语言转换中十分有效。
May, 2020
本文研究了多语种上下文嵌入的语言中性和词汇语义,提出了两种实现更强语言中性的方法,并展示了在不使用平行数据的情况下如何达到语言识别的最新准确率以及匹配平行句子的词对齐统计方法的性能。
Apr, 2020
本研究针对跨语言能力对多语言 BERT 进行了深入实验研究,发现数据大小和上下文窗口大小是跨语言能力的关键因素,探讨了多语言 BERT 中的语言特定信息,通过操作潜在表示控制多语言 BERT 的语言输出,实现了无监督令牌翻译,并提出了一种计算成本低但有效提高多语言 BERT 跨语言能力的方法。
Apr, 2020