多语言递归神经网络中的跨语言句法转移理解
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
本文提出了一种名为 “Lexicon-Syntax 增强多语言 BERT” 的新框架,该框架结合了词汇和句法知识,并通过多种技术增强其学习能力,在零样本跨语言传递的任务中取得了优异的成绩。
Apr, 2024
通过实验证实,多语言预训练可以在源语言和目标语言之间进行跨语言迁移,且不仅语言污染和语言近似性是影响迁移的因素,还有一种语言无关的知识组件,可以用于跨语言迁移和知识传递。
Apr, 2024
通过实验证明多语言模型具有零 - shot 跨语言知识转移的能力并且在下游任务中表现出较高性能,但我们对当前评估基准和设置是否能准确衡量零 - shot 跨语言知识转移产生了质疑。本研究通过引入更具挑战性的多语言实例设置,表明多语言模型的高性能在很大程度上归因于不需要传递实际语言知识的因素,如任务和表面层知识。我们观察到跨语言传递的主要是数据工件和偏见,尤其是对于资源有限的语言。我们的发现凸显了现有跨语言测试数据和评估设置的缺点,呼吁对多语言模型的跨语言能力有更细致的理解。
Feb, 2024
通过研究多语言掩码语言建模问题,我们阐述了若干因素,即为何这些模型在跨语言转移方面如此有效,并证明了即使单语料库之间没有共享词汇,也可以进行转移,只需在多语言编码器顶层存在一些共享参数。同时,我们展示了来自不同语言、独立训练模型的表示可以很好地进行后期对齐,这些模型似乎自动发现和对齐了学习嵌入空间中的普遍潜在对称性。对于多语言掩码语言建模,这些对称性似乎是在联合训练过程中自动发现和对齐的。
Nov, 2019
利用生成对抗网络和无监督多语言嵌入,结合多源语言训练数据的多语言转移学习方法,在多语言文本分类和序列标记任务中实现 target 语言的显著性能提升。
Oct, 2018
该研究采用神经元级别探测器,在包括 43 种语言的 14 个形态句法类别上进行了大规模的实证研究,并发现了多语言预训练模型的跨语言重叠是显著的,但其范围可能因语言接近性和预培训数据的大小而异,支持其能够对语法进行语言通用的抽象。
May, 2022
利用语言的语法方面作为测试基础,我们的分析揭示了对于仅编码器和仅解码器的大型语言模型,语言的结构概念空间之间具有高度的对齐度。然后,我们提出了一种基于元学习的方法来学习不同语言之间的概念空间对齐,从而实现零样本学习和少样本学习,并增进了对跨语境情景的学习现象的理解。在语法分析任务上的实验表明,我们的方法与最先进的方法相比取得了竞争性的结果,并缩小了语言之间的性能差距,特别有助于那些资源有限的语言。
Oct, 2023
新颖的跨语言转移学习方法 - 从单语言模型到新语言,通过学习一个新的词嵌入矩阵来实现,该方法与现有不需要共享词汇表或联合训练的最先进的无监督多语言模型的跨语言分类基准测试表现相似。
Oct, 2019
本文论述了跨语言零 - shot 迁移的问题,并通过对 XLM-RoBERTa 进行实验,研究机器阅读理解、情感分析和句子嵌入对跨语言迁移的影响。发现跨语言迁移在语义文本相似度检验(STS)中表现最强,情感分析次之,机器阅读理解中表现最弱。
Jan, 2021