基于MAML的树形元学习
本文探讨了如何使用Bayesian模型和梯度下降进行meta-learning,通过MAML算法应用到复杂的函数逼近器上,进一步提升了算法的性能,并利用近似推断和曲率估计技术提出了改进措施。
Jan, 2018
本文提出了一种基于梯度的分层结构的元学习方法,该方法通过任务聚类结构以及自适应知识传递来解决元学习中任务不确定性和异质性问题,并在玩具回归和少样本图像分类问题中取得了最优表现。
May, 2019
本文探讨了在低资源环境下生成新场景的句子,提出了基于元学习的通用优化方法(Meta-NLG)来解决这个问题,并在大型多域数据集上进行了实验,表明Meta-NLG在各种低资源配置中显著优于其他训练过程,适应低资源情况极快且良好。
May, 2019
本研究探讨了基于元学习算法的模型无关元学习算法(MAML)及其变体,以解决低资源自然语言理解任务中现有方法表现不佳的问题,并在GLUE基准测试中验证了该方法的有效性。
Aug, 2019
应用元学习技术,使用模型无关的元学习 (MAML) 在不同的语言上进行训练,实现快速适应新语言,有效提高了在少量数据集下,处理跨语言NLP问题时的效果。
Apr, 2021
为提高MAML方法在跨语言自然语言处理中的鲁棒性,本文提出了两个基于最小化最大风险和约束性分布分别的构思而实现的改进版本:Minimax MAML和Neyman-Pearson MAML。这两种标准均构成了可微分的两人博弈。研究者在POSM和QA两个自然语言处理任务中对比了它们与其他方法的效果表现。
Jun, 2021
本文提出了一种基于元学习和语言聚类的元学习框架(Meta-X$_{NLG}$),从不同的语言中学习可共享的结构,以实现对未知语言的统一跨语种转移。在两个自动生成任务(提取型文本摘要和问题生成)以及30种类型各异的语言和5个广泛使用的数据集上,该框架展示了相对于强基线的一致的改进效果,并且该模型的细致设计使得该端到端自动化生成设置不太容易受到意外翻译问题的影响,这在零-shot跨语种自然语言生成任务中是一个突出的问题。
Mar, 2022
本研究旨在探讨对多任务教学学习(MTIL)应用元学习(meta-learning)是否可以进一步提高对未见任务的泛化能力。通过在自然语言理解(NLU)任务的大规模数据集上进行广泛实验,我们提出的方法在零-shot场景下显著改善了强基线,尤其是在测试任务严格为零-shot且对语言模型(LM)较难的情况下,元学习可提高教学的有效性,展示出MTIL的元学习在新任务中的潜力。
Oct, 2022
我们提出了MAML-en-LLM,一种新的元训练大型语言模型的方法,可以学习到真正可泛化的参数,不仅在不同任务上表现良好,还适应了未知任务,并且在性能和适应性能上得到了显著提升。
May, 2024