多任务学习用于多语言模型零 - shot 性能预测
本文介绍了一种零射击跨语言主题模型,利用迁移学习来处理多个语言的数据集,以解决传统基于词袋的主题模型所面临的单语言或巨大而稀疏的词汇表等问题,并评估了在不同语言中同一篇文章的主题预测的准确性和连贯性,结果表明所转移的主题是连贯且稳定的,具有潜在的未来研究方向。
Apr, 2020
本论文展示了在辅助支点语言中提供少量注释数据可以更好地选择用于零 - shot 跨语言迁移的 fine-tuned models,并提出一种基于机器学习的方法用于模型选择,该方法使用 fine-tuned 模型的内部表示来预测其跨语言能力。在广泛的实验中,我们发现这种方法比使用英文验证数据一直可以跨越二十五种语言(包括八种低资源语言)选择更好的模型,并且通常可以达到使用目标语言开发数据进行模型选择的结果
Oct, 2020
研究多语言应用中,如何应用元学习来提高模型性能,通过实验表明在标准的监督学习、零样本学习和少样本学习的跨语言自然语言理解任务中,元学习对于 15 种语言始终有效。
Mar, 2020
本文探讨了如何改善大规模多语言神经机器翻译模型的性能,并提出了加强模型能力、引入语言特定组件和加深神经机器翻译结构以支持具有不同类型学特征的语言对,同时通过随机在线回译来解决离线训练中未出现的语言对翻译问题。实验结果表明,本方法在一对多和多对多设置中缩小了双语模型的性能差距,并将零 - shot 表现提高约 10 BLEU,接近传统的基于中间语言的方法。
Apr, 2020
分析了 massively multilingual transformers 在零射击跨语言场景中的局限性,并表明在资源匮乏和对比较遥远语言的情况下通过多语言转换的跨语言转移实际上不太有效。通过几个低级和高级自然语言处理任务的实验,确立了源语言和目标语言之间的语言相似度以及目标语言的预训练语料库的大小与转移性能之间的相关性。另外,研究表明通过在源语言上调整细节,再在目标语言上进行少量微调的 few-shot transfer 在多语言转换中十分有效。
May, 2020
利用教师 - 学生框架从高性能的单语言模型中转移知识,构建了一个基于 MPLMs 的多语言分支模型(MBLM),并使用零射击感知的训练策略令模型从所有分支的零射击表示中学习,我们的方法仅使用任务的监督数据,提高了 MPLMs 的监督性能和零射击性能。
Feb, 2022
通过将广泛多样的监督数据集转换为易读提示集合的方式,使用预先训练的编码器 - 解码器模型进行多任务学习可以直接导致强大的零 - shot 表现,该方法能够在多个标准数据集上表现出比同类模型大多数情况下强 16 倍的性能,并在 BIG-bench 基准测试中的某些任务上表现出比同类型模型强 6 倍的性能。
Oct, 2021
通过使用预训练模型,我们提出了一种零样本跨语言转移的新方法,它能够在低资源语言上实现任务感知的双语信息对齐,并利用未标记数据进行自我训练,从而实现多种任务上的最新技术提升,无需并行语料库或翻译模型。
Oct, 2023
本文研究了视觉语言模型的零样本跨语言迁移。我们专注于多语言文本到视频搜索,并提出了一种基于 Transformer 模型的方法来学习上下文相关的多语言多模态嵌入。在零样本设置下,我们在用非英语句子查询多语言文本 - 视频模型时发现性能显著下降。为了解决这个问题,我们引入了多语言多模态预训练策略,并收集了一个新的多语言教学视频数据集(MultiHowTo100M)进行预训练。在 VTT 上的实验表明,我们的方法显著提高了非英语语言的视频搜索效果,而无需额外的注释。此外,当有多语言注释时,我们的方法在 VTT 和 VATEX 上的多语言文本到视频搜索以及 Multi30K 上的多语言文本到图像搜索方面大幅优于最近的基准线。
Mar, 2021
零 - shot 跨语言生成的前提是在一个语言上对多语言预训练语言模型进行微调,并将其用于其他语言的生成任务中。先前的研究注意到生成错误语言的频繁问题,并提出了解决方法,通常使用 mT5 作为基础模型。本研究在统一设置下比较了文献中提出的各种方法,还包括 mBART 和 NLLB-200 作为备用基础模型。我们首先强调了微调中使用的学习率调整的重要性,这有助于大幅减轻生成错误语言的问题。然后,我们展示了通过仔细调整学习率,简单的模型全面微调作为一个非常强大的基准,备选方法带来的只是微小的改进。最后,我们发现 mBART 的性能与相同大小的 mT5 相似,并且在某些情况下,NLLB-200 可以有竞争力。我们的最终模型达到了基于数据翻译的方法的性能水平,这通常被视为零 - shot 跨语言生成的上限基准。
Feb, 2024