跨语言迁移中多源语言训练的分析
用机器翻译和多语言模型来进行跨语言转移,尤其是对低资源语言进行翻译的方法比零样本跨语言转移方法要有效。通过在源语言训练数据上进行往返翻译并在目标语言测试实例上进行翻译的方法最有效。同时,通过将其他高资源语言的可靠翻译添加到训练数据中,还可以获得更多实证方面的收益。研究还提出了一种针对不受机器翻译系统支持的语言的有效的基于翻译的跨语言转移策略。最后,通过使用目标语言校验数据来进行模型选择,比使用源语言数据进行模型选择要更好。我们希望我们的研究结果能够促进在跨语言转移研究中采用更可靠的基于翻译的基准线方法。
Nov, 2023
大型语言模型(LLMs)在提高高资源编程语言的开发者生产力方面表现出色。然而,许多低资源编程语言由于缺乏标记样本而无法受益于 LLMs,本研究通过使用源语言数据来提高目标语言的模型性能,并针对 4 个任务进行了广泛实验,以探讨交叉语言迁移学习的工作原理和最佳选择源语言的方式。
Oct, 2023
利用生成对抗网络和无监督多语言嵌入,结合多源语言训练数据的多语言转移学习方法,在多语言文本分类和序列标记任务中实现 target 语言的显著性能提升。
Oct, 2018
本文在分析预训练 mT5 模型对 90 种语言对之间交叉语言联系学习时,发现源语言和目标语言的语法、形态和音韵相似度对于跨语言传递的表现具有良好的预测性,可望提高零样本性能表现。
Dec, 2022
多语言语言模型(MLLMs)展现了强大的跨语言转移能力,本研究旨在调查源语言应用于目标语言的效果,特别是在扰动输入测试集的情况下,发现命名实体识别的跨语言转移主要取决于实体块的重叠,研究结果提供了宝贵的跨语言转移见解并强调了在跨不同语言时考虑语言细微差异和潜在限制的必要性。
Mar, 2024
本文论述了跨语言零 - shot 迁移的问题,并通过对 XLM-RoBERTa 进行实验,研究机器阅读理解、情感分析和句子嵌入对跨语言迁移的影响。发现跨语言迁移在语义文本相似度检验(STS)中表现最强,情感分析次之,机器阅读理解中表现最弱。
Jan, 2021
本研究提出了一种名为跨语言思维提示(XLT)的方法,通过激发跨语言和逻辑推理技能,改善了大语言模型的多语言能力,并在与推理、理解和生成有关的 7 个基准测试中进行了全面的评估,实验结果显示 XLT 不仅显著提高了各种多语种任务的性能,而且还显著减少了不同语言中每个任务平均性能和最佳性能之间的差距。
May, 2023
通过使用两种语言之间的子网络相似性作为预测跨语言转移 (XLT) 的语言兼容性的代理方法,本研究提出了一种以模型为导向,仅需要适量原始文本的方法,进一步提高了 XLT 的效能。实验证明我们的方法在多样性任务上优于其他基准模型,并能有效对零样本 XLT 进行排名,平均 NDCG@3 提高了 4.6%。此外,我们还对子网络在 XLT 预测中的实用性进行了广泛的分析。
Oct, 2023
本研究采用跨语言后训练 (XPT) 基于单一低资源语言进行了广泛的评估和探测实验,结果显示 XPT 不仅优于或与训练数据数量更多的单语模型的表现相当,而且转移过程非常高效。
Sep, 2022
本文提出了两种跨语言学习模型的方法 (XLMs): 一种是仅依赖于单语数据的无监督方式, 另一种是利用新的跨语言模型目标并使用平行数据的有监督方式。通过这些方法在跨语言分类、无监督和有监督机器翻译中取得了最先进的结果。
Jan, 2019