通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本研究针对图像分类器的训练方法进行了探讨,通过元学习算法对支持数据、查询数据和任务进行复杂的抽样,利用数据增强方法不仅可增加每个类别的图片数量,还可生成全新的类别和任务,提高了元学习器在少样本分类基准上的性能。
Oct, 2020
该研究提出了 MetaMix 和 Channel Shuffle 等两种元学习任务增广方法,以提高元学习的泛化能力。实验结果显示这两种方法都能显著提高元学习在多个数据集上的表现,并且与现有元学习算法兼容。
Jul, 2020
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
元学习是通过系统观察不同的机器学习方法在各种学习任务上的表现,然后从这种经验或元数据中学习,以比以前快得多地学习新任务的科学。本章提供了该领域不断发展、令人着迷的最新概述,不仅可显著加速和改善机器学习流水线或神经结构的设计,还可以用数据驱动的方式学习新方法以取代手工设计的算法。
Oct, 2018
本研究综合了先前的工作,旨在建立一个关于 cognition 的 meta-learned 模型的研究计划,证明 meta-learning 可以用于构建 Bayes-optimal learning algorithms,实现对 cognitive theories 的更加广泛的范围的建模
Apr, 2023
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024
该文总结了元学习(或学习 - 学习)领域的现状,旨在通过改进学习算法本身来解决深度学习中包括数据和计算瓶颈在内的传统挑战,并提出了一种更全面的元学习方法分类,并重点介绍了几个应用领域,如少样本学习和强化学习,并讨论了未来研究的未解决的问题和有前景的方向。
Awesome-META + 是一个元学习框架集成和学习平台,它提供一个完整和可靠的元学习应用和学习平台,旨在解决元学习的当前瓶颈问题,推动其发展并扩大社区,并适用于多领域任务。
本文提出了一个基于对元学习与传统监督学习之间联系的重新审视和加强的原则性统一框架,通过把任务特定数据集和目标模型看作(特征、标签)样本,我们可以把许多元学习算法归约到监督学习的实例中,进一步提高了元学习的表现。
Feb, 2020