探索元学习算法在低资源自然语言理解任务中的应用
该文介绍了一种新的文本分类方法,利用元学习的方法来进行更好的自然语言理解,该方法综合运用MAML和attention机制进行任务不可知表示学习和任务特定的注意力调整,可以在数据稀缺的情况下更好地进行单标签和多标签分类任务。
Jun, 2018
本文利用元学习算法(MAML)扩展低资源NMT问题,并通过多语言高资源任务进行学习来适应低资源语言,并利用全局词汇表解决不同语言的输入输出错配, 在使用18种欧洲语言作为源任务和5种不同的语言作为目标任务的情况下,相对于基于多语言、迁移学习的方法,表明所提出的方法显著优于现有方法,并仅需少量训练示例即可获得具有竞争力的NMT系统。
Aug, 2018
本文探讨了在低资源环境下生成新场景的句子,提出了基于元学习的通用优化方法(Meta-NLG)来解决这个问题,并在大型多域数据集上进行了实验,表明Meta-NLG在各种低资源配置中显著优于其他训练过程,适应低资源情况极快且良好。
May, 2019
我们通过利用层次化任务关系,扩展了一个模型不可知的元学习模型MAML,提出了一种名为TreeMAML的算法,并使用聚类算法生成任务树,表明该算法在涉及层次结构的任务上比MAML表现更好,特别地,在交叉语言自然语言推理任务上,表现的更优。
Mar, 2021
文章提出了一种记忆模仿元学习方法,利用任务特定的记忆模块存储支持集信息,并构建模仿模块来强制查询集模仿存储在内存中的某些代表性支持集样本的行为,以提高模型对支持集的利用,进而在文本分类和生成任务中取得了优异的性能。
Mar, 2022
这篇综述论文介绍了自然语言处理领域中元学习的概念和应用,指出当前技术需要更多的标注数据和适用域限制,而元学习技术则旨在提高学习算法的数据效率和适用范围,在NLP任务中表现出了显著的效果。此外,该论文总结了元学习在NLP中的任务构建、问题应用和发展趋势,为研究人员提供了相关工作的指导和吸引更多研究关注。
May, 2022
本论文旨在解决NLU模型在缺乏数据或知识资源时的挑战,提出了跨语言和跨域适应方法及面向低资源语言的关键词增强方法、序列颗粒化建模方法、多领域预训练方法和粗粒度到细粒度的表示学习框架。
Aug, 2022
我们提出了MAML-en-LLM,一种新的元训练大型语言模型的方法,可以学习到真正可泛化的参数,不仅在不同任务上表现良好,还适应了未知任务,并且在性能和适应性能上得到了显著提升。
May, 2024