本文提出了一种基于梯度的分层结构的元学习方法,该方法通过任务聚类结构以及自适应知识传递来解决元学习中任务不确定性和异质性问题,并在玩具回归和少样本图像分类问题中取得了最优表现。
May, 2019
该研究提出了一种综合了元学习和在线学习范式的在线元学习模型,运用改进后的 MAML 算法,实现连续终身学习,实验结果表明该算法明显优于传统的在线学习方法。
Feb, 2019
本篇论文提出一种基于知识库组织方式的自动关系元学习(ARML)框架,它可以从先前完成的任务中自动抽取跨任务关系并构建元知识图,通过学习的元知识图解决任务异质性的挑战,同时提高模型可解释性。
Jan, 2020
本文旨在开发一种方法,从传入的数据流中使用深度神经网络模型进行连续的在线学习,使用随机梯度下降算法来更新模型参数,并使用先验的中餐馆过程的期望最大化算法来开发和维护一种混合模型来处理非平稳任务分布。我们将元学习应用于基于模型的强化学习,以适应预测模型关键控制任务中的连续快速自适应。
Dec, 2018
通过构建基于组合语法的结构化任务分布和相同统计复杂度但没有明确的基于规则的结构的 “空任务分布”,比较人类表现与标准元学习代理在两个任务分布中的表现,发现虽然统计复杂度相当,但人类在结构化任务分布中表现更好,而代理在空任务分布中表现更好,这表明控制任务分布的谨慎构建是理解元学习者获得的策略及其与人类的差异之一种有价值的方法。
Oct, 2020
通过提供一份综合调查报告,有组织地使用一致的术语和形式描述,本文旨在促进这个有前景的研究领域的进一步发展。
Nov, 2023
本文提出一种基于元学习及相关性函数的 few-shot 元学习方法,将原先监督学习的每个样本视为一个独立的伪任务,经过实验验证,该方法在 WikiSQL 数据集上取得较好的成果。
Mar, 2018
在研究中,提出了一个更普遍的场景 OSAKA,即代理人必须快速解决新的(分布外)任务,并快速回忆起以前的任务。作者提出了 Continual-MAML 作为强有力的基准线,并在实验中证明,它比其他方法更适合新情况。
Mar, 2020
本论文旨在提供关于 Deep Meta-Learning 的理论基础以及总结关键的度量、模型和优化技术,同时也指出了性能评估和计算成本等主要挑战。
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021