明确对齐是否能够稳定提高多语言编码器性能?
本文提出了一种新的方法,即 AMBER(Aligned Multilingual Bidirectional EncodeR),它是一个学习对齐多语言编码器的方法,能够让预训练的跨语言编码器在不同的任务中获得更好的性能,如零 - shot 跨语言迁移学习和序列标注。
Oct, 2020
本文分析了不同形式的跨语言监督和各种对齐方法对 Multilingual BERT 在零 - shot 设置下的转移能力的影响,比较了平行语料库 vs. 字典导向的监督和旋转 vs. 微调对齐方法,针对两个任务(名称实体识别和语义槽填充),我们评估了不同对齐方法在八种语言上的性能,并提出了一种新的规范化方法,该方法不断改进基于旋转的对齐性能,特别是远距离和在语言类型上不同的语言。此外,我们还发现对于任务和转移语言的接近程度,不同的对齐方法存在偏差,平行语料库的监督力度通常优于字典对齐。
Sep, 2020
本研究提出了一种简单的方法,作为预训练后对多语种上下文嵌入进行对齐的步骤,以提高预训练模型的零 - shot 跨语言迁移能力。该方法通过最近提出的 Translation Language Modeling 目标在词级别上对嵌入进行对齐,并通过对比学习和随机输入洗牌在句子级别上进行对齐。在下游任务的微调中,使用英语进行句子级别的代码转换。在 XNLI 上,我们的最佳模型(从 mBERT 初始化)在零 - shot 设置上比 mBERT 提高了 4.7%,在使用少于 18%的相同平行数据和 31%的模型参数的情况下,实现了与 XLM for translate-train 相当的结果。在 MLQA 上,我们的模型胜过比我们多 57%参数的 XLM-R_Base。
Oct, 2020
本文提出了一种通过对抗样本和零样本跨语言转移失败案例进行联系的学习策略,采用对抗性训练和随机平滑这两种方法来训练多语言编码器更加强健的模型,实验结果表明,强健训练可以提高零样本跨语言数据分类任务中的性能,尤其在输入语句属于两种不同语言的情况下,改进更为显著。
Apr, 2021
提出了一种测量和加强上下文嵌入对齐的程序,证明其在分析和改进多语言 BERT 方面非常有用。在我们的对齐程序之后,BERT 在零 - shot 任务中表现显著提高。使用上下文版本的 Word Retrieval 任务,我们发现 BERT 存在系统性缺陷,在我们的对齐程序下得到了纠正。这些结果支持上下文对齐作为理解大型多语言预训练模型的一个有用概念。
Feb, 2020
本研究提出了一种新的预训练目标 ALIGN-MLM,该目标通过辅助损失来引导不同语言中相似的词具有相似的词嵌入,实现跨语言转移学习中的单词嵌入对齐,此方法在机器学习中的应用具有广泛的前景。
Nov, 2022
在许多对多神经机器翻译中,使用单词级对比目标来利用单词对齐具有 0.8 BLEU 提升,并发现编码器的句子检索性能与翻译质量高度相关,这解释了所提出方法的影响所在,从而为未来的深入研究提出了动机。
Apr, 2022
该论文探讨了一种嫁接预训练语言模型和平行文本的方法来提高单词对齐质量的方法,提出了从这些微调模型中有效提取对齐信息的新方法,并证明了它们在五种语言对上优于之前的最先进模型,还演示了开源的具备预训练模型的 AWESOME 单词嵌入式多语言编码对齐器的实际性能
Jan, 2021
本文研究了多语言语言模型的跨语言转移,并通过证据表明,对翻译句子中的单词对进行重新对准可以在某些情况下显著提高跨语言转移,特别是使用双语词典而不是 FastAlign 提取对齐对的任务中。
Jun, 2023