多语言翻译中的子词和跨语言转移的系统分析
本研究通过对五种语言的三个任务进行大量实验研究,发现在利用子词级别信息进行词表示学习时,不同语言和任务下,分词和组成函数等关键组件的最优配置各异。同时,我们还发现,一些无监督分词方法,如 BPE 和 Morfessor 等,有时能够和甚至超过一些基于监督分词方法的配置。
Apr, 2019
该研究提出了一种基于语言模型的子词分段语言模型(SSLM),在训练期间学习如何分段单词,以优化语言模型的性能。通过统一子词分割和语言建模,SSL 模型学习到优化语言建模性能的子词。结果表明,学习子词分割是现有子词分割器的有效替代方案,可以发现类似词素的子词,以提高其语言模型的能力。
Oct, 2022
研究了现代神经语言模型的多语言训练中的字面表示空间和纯语法知识的共享,发现暴露我们的 LMs 与相关语言并不总是增加目标语言的语法知识,并且在语义转移的最佳条件下并不一定是语法转移的最佳条件。
Mar, 2020
本文研究了跨语言模型中影响句子级别对齐的语言和非语言因素,并使用 BERT 和 BiLSTM 模型和《圣经》作为语料库进行了比较分析,结果表明,词序一致性和形态复杂度一致性是跨语言性的两个最强的语言预测因素。
Sep, 2021
新颖的跨语言转移学习方法 - 从单语言模型到新语言,通过学习一个新的词嵌入矩阵来实现,该方法与现有不需要共享词汇表或联合训练的最先进的无监督多语言模型的跨语言分类基准测试表现相似。
Oct, 2019
本文讨论词的子词分割算法在自然语言处理和机器翻译等任务中的应用。虽然这些算法将单词分为形式上相对含义不明确的子词,然而它们在高效的机器翻译系统中发挥着作用。本文探讨这种算法的语言学和哲学学理基础,并试图使人工智能更透明和可解释。
Oct, 2022
该论文在多语言语言模型上进行了大规模实证研究,并发现词嵌入的对齐程度与零 - shot 迁移的性能密切相关,因此需要在多语言模型中专门改善词嵌入的对齐程度。
Oct, 2021
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
本文提出了一种在多语言模型中使用语言特定的子网络的新方法,以控制跨语言参数共享,减少冲突,并在微调过程中增加正向迁移能力,结合元学习技术进行优化,通过广泛的分析验证了方法对模型的影响。
Oct, 2022