基于元学习的自编码器进行少样本预测
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
本文提出了一种模型无关的元学习算法,通过少量的训练样本,使用梯度下降算法来训练模型的参数,实现了对新学习任务的快速调整和学习,导致在少量图像分类、回归和神经网络政策优化方面表现出最先进的性能。
Mar, 2017
本文介绍了一种新的元学习方法 Meta Networks(MetaNet),它通过快速参数化学习跨任务的元级知识,并在新概念上进行快速泛化,同时保持了以前所学的性能表现,在 Omniglot 和 Mini-ImageNet 基准测试中,我们的 MetaNet 模型实现了接近人类水平的表现,并在准确性上优于基线方法高达 6%。我们展示了 MetaNet 的几个有吸引力的性质,如泛化和持续学习。
Mar, 2017
应用元学习于自监督遮蔽自编码器以实现时空学习的研究中,我们通过三个步骤进行探索。我们测试了应用元学习于现有先进表示学习架构的影响,并通过三种方法进行时空学习的测试,分别是仅应用元学习架构、仅应用表示学习架构,以及应用表示学习与元学习架构的组合。我们使用 Memory Augmented Neural Network (MANN) 架构来应用元学习于我们的框架。具体地,我们首先实验了在小规模时空数据集上应用预训练的 MAE 进行视频重构任务的微调。接下来,我们尝试训练 MAE 编码器并应用分类头来进行动作分类任务。最后,我们实验了在具备 MANN 骨干网络的情况下,应用预训练的 MAE 进行动作分类任务的微调。
Jul, 2023
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
本文提出了一种自监督的方法来生成大量的 meta-learning 任务分布,通过这种方法,将 transformer 模型的预训练与 meta-learning 相结合,证明了这种方法能够在 NLP 任务上实现更好的少样本泛化。
Sep, 2020
本文介绍了一种分解元学习方法,通过元学习逐步解决了少样本命名实体识别中的少样本跨度检测和少样本实体类型划分问题,并在各种基准测试中证明了该方法优于以往方法的卓越性能。
Apr, 2022
提出了多任务编码器(MTAE)算法,将原始图像转换为多个相关领域的类似图像,从而学习到跨领域对象识别的鲁棒特征,并在基准图像识别数据集上表现出比其他基于自编码器的模型和当前领域通用状态下的最新算法更好的性能。
Aug, 2015