基于元学习的依存句法快速跨语言适配
本文利用元学习算法 (MAML) 扩展低资源 NMT 问题,并通过多语言高资源任务进行学习来适应低资源语言,并利用全局词汇表解决不同语言的输入输出错配, 在使用 18 种欧洲语言作为源任务和 5 种不同的语言作为目标任务的情况下,相对于基于多语言、迁移学习的方法,表明所提出的方法显著优于现有方法,并仅需少量训练示例即可获得具有竞争力的 NMT 系统。
Aug, 2018
本研究探讨了基于元学习算法的模型无关元学习算法(MAML)及其变体,以解决低资源自然语言理解任务中现有方法表现不佳的问题,并在 GLUE 基准测试中验证了该方法的有效性。
Aug, 2019
研究多语言应用中,如何应用元学习来提高模型性能,通过实验表明在标准的监督学习、零样本学习和少样本学习的跨语言自然语言理解任务中,元学习对于 15 种语言始终有效。
Mar, 2020
该研究提出了一种名为 X-METRA-ADA 的交叉语言 MEta-TRAnsfer 学习 ADAptation 方法,其采用元学习技术来增强自然语言理解(NLU)领域中的跨语言转化,并通过两个跨语言 NLU 任务的大量实验证明了该方法性能优于朴素微调方法,该方法能够利用有限数据进行更快的适应。
Apr, 2021
本文提出的元学习微调框架可提高目前状态下的预训练视觉语言模型在跨语言多模态场景下的适应性和性能表现,实验证明该方法在跨语言零样本和少样本多模态交叉迁移的场景下均可提高模型性能。
May, 2023
本文探讨了在低资源环境下生成新场景的句子,提出了基于元学习的通用优化方法(Meta-NLG)来解决这个问题,并在大型多域数据集上进行了实验,表明 Meta-NLG 在各种低资源配置中显著优于其他训练过程,适应低资源情况极快且良好。
May, 2019
这篇综述论文介绍了自然语言处理领域中元学习的概念和应用,指出当前技术需要更多的标注数据和适用域限制,而元学习技术则旨在提高学习算法的数据效率和适用范围,在 NLP 任务中表现出了显著的效果。此外,该论文总结了元学习在 NLP 中的任务构建、问题应用和发展趋势,为研究人员提供了相关工作的指导和吸引更多研究关注。
May, 2022
该论文提出了一种元学习方法,可以在有限资源的情况下进行文档分类,并在少量标记数据的情况下取得了较好的效果,涉及跨语言、多语言的情况。作者还对多个元学习方法进行了比较和调整,提出了一种简单且有效的调整方式,并在多语言上取得了新的最佳表现。
Jan, 2021