提出了一种在线结构化元学习(OSML)框架,该框架通过元分层图形式显式解开元学习器,通过不同的知识块构建元知识路径,从而使模型能够快速适应新任务并吸收新知识。通过在三个数据集上的实验,证明了该框架在同质性和异质性任务上的有效性和可解释性。
Oct, 2020
本篇论文提出一种基于知识库组织方式的自动关系元学习(ARML)框架,它可以从先前完成的任务中自动抽取跨任务关系并构建元知识图,通过学习的元知识图解决任务异质性的挑战,同时提高模型可解释性。
Jan, 2020
利用聚类方法探索任务结构,缩小任务特定信息的搜索空间,提高元强化学习的采样效率和策略适应能力。
Feb, 2023
本文提出一种基于梯度元学习的嵌入式集成元学习算法 (EEML),该算法显式地利用多模型集成将先前任务的先验知识组织成不同的特定专家,并依赖于任务嵌入聚类机制,在训练过程中将不同的任务交给匹配的专家并指导专家在测试阶段如何协作。实验证明,该方法在少样本学习问题上显著优于最近的最新技术。
Jun, 2022
通过构建基于组合语法的结构化任务分布和相同统计复杂度但没有明确的基于规则的结构的 “空任务分布”,比较人类表现与标准元学习代理在两个任务分布中的表现,发现虽然统计复杂度相当,但人类在结构化任务分布中表现更好,而代理在空任务分布中表现更好,这表明控制任务分布的谨慎构建是理解元学习者获得的策略及其与人类的差异之一种有价值的方法。
通过选择多样的任务进行小批量处理,我们研究利用任务关联的外部知识来改善训练稳定性,进而减少训练中的噪音。
Dec, 2023
本文提出一种基于元学习及相关性函数的 few-shot 元学习方法,将原先监督学习的每个样本视为一个独立的伪任务,经过实验验证,该方法在 WikiSQL 数据集上取得较好的成果。
Mar, 2018
该论文提出了一种信息论的元学习模型,通过优化划分学习任务,使得专业的决策者解决子问题,从而达到高效的适应新任务的效果,在图像分类、回归和强化学习三个元学习领域进行验证。
Oct, 2019
本文提出了一种元学习方法,通过使用共享的基元,改进对未见过任务样本的样本效率,并提供了衡量其效果的具体指标;同时,通过重置任务特定策略并使用任何现成的强化学习方法,我们实现了这一方法的端到端解决方案,成功地在用四条腿的机器人互动的迷宫分布中发现了有意义的运动原语,并且将原语应用于解决长时间尺度的稀疏奖励障碍航线问题,从而使三维人形机器人能够稳健地行走和爬行。
Oct, 2017
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019