一个简单的神经注意力元学习器
本文介绍了一种新的元学习方法 Meta Networks(MetaNet),它通过快速参数化学习跨任务的元级知识,并在新概念上进行快速泛化,同时保持了以前所学的性能表现,在 Omniglot 和 Mini-ImageNet 基准测试中,我们的 MetaNet 模型实现了接近人类水平的表现,并在准确性上优于基线方法高达 6%。我们展示了 MetaNet 的几个有吸引力的性质,如泛化和持续学习。
Mar, 2017
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
深度神经网络在人工智能领域带来了革命性的进展,但面对分布转移时常常缺乏性能。传统神经网络假设训练和测试数据服从同一分布,然而实际应用中这一假设经常被违反。元学习作为一种有前景的方法,通过获取可传递的知识来快速适应各种任务,从而消除了从头学习每个任务的需求。本文基于特征提取策略和分类器学习方法的新分类法,全面调查了元学习在领域泛化方面的贡献,详细介绍了该领域的基础知识,并提供了关于未来研究方向的实践见解和深入讨论。
Apr, 2024
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
MetaNAS 是第一个将 NAS 与基于梯度的元学习完全集成的方法,可以在少量数据和计算资源的情况下适应新任务,并在少样本分类基准测试中获得最先进的结果。
Nov, 2019
该文总结了元学习(或学习 - 学习)领域的现状,旨在通过改进学习算法本身来解决深度学习中包括数据和计算瓶颈在内的传统挑战,并提出了一种更全面的元学习方法分类,并重点介绍了几个应用领域,如少样本学习和强化学习,并讨论了未来研究的未解决的问题和有前景的方向。
Apr, 2020
该研究提出了一种易 - 难专家元训练策略和任务难度感知模块,用于优化元学习方法,使其在少样本分类任务上表现更好。该策略优先进行易任务的训练,再进行难任务的强化。实验结果显示,该方法在 miniImageNet 和 tieredImageNetSketch 数据集上可以获得更好的结果。
Jul, 2020