具有学习层度量和子空间的基于梯度的元学习
本文提出了一种模型无关的元学习算法,通过少量的训练样本,使用梯度下降算法来训练模型的参数,实现了对新学习任务的快速调整和学习,导致在少量图像分类、回归和神经网络政策优化方面表现出最先进的性能。
Mar, 2017
本文提出一种使用时间卷积和软注意力的简单而通用的元学习器结构,命名为SNAIL, 在广泛的元学习实验中实现了表现显著优于现有技术,并获得了当前最先进的性能。
Jul, 2017
本文从普适性的角度出发,比较递归模型与将梯度下降融入元学习者的最新方法的表达能力,并回答了梯度下降与深度表示是否具有近似任何学习算法的足够能力的问题。结果发现,基于梯度的元学习策略与递归模型相比具有更广泛的推广性。
Oct, 2017
研究表明,自动化架构搜索与基于梯度的元学习相结合,能够优化元学习器,使用此技术,预测准确率提高了11.54%,在五次样本五种类的迷你图像分类问题中,最终的元学习器达到了74.65%的准确率,是目前最先进的结果之一,也是在元学习背景下第一个成功的神经架构搜索。
Jun, 2018
本文研究了神经网络在基于梯度的元学习中的泛化问题,分析了目标景观的各种特性,提出了一种新的正则化方法以增强模型的泛化能力。实验表明,在元训练提供的元解决方案的基础上,通过几步基于梯度的微调适应元训练模型到新任务时,所得到的元测试解决方案变得越来越平坦,损失更低,并且远离元训练解决方案。
Jul, 2019
MetaNAS是第一个将NAS与基于梯度的元学习完全集成的方法,可以在少量数据和计算资源的情况下适应新任务,并在少样本分类基准测试中获得最先进的结果。
Nov, 2019
该文总结了元学习(或学习-学习)领域的现状,旨在通过改进学习算法本身来解决深度学习中包括数据和计算瓶颈在内的传统挑战,并提出了一种更全面的元学习方法分类,并重点介绍了几个应用领域,如少样本学习和强化学习,并讨论了未来研究的未解决的问题和有前景的方向。
Apr, 2020
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了MTL作为一阶方法可以代替计算代价高的二阶方法——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
本研究解决了现有模型无关元学习(MAML)在训练和推理阶段的不稳定性和计算效率低的问题。提出的两种算法通过在函数空间中重新定义优化问题和调整任务损失权重,提高了MAML的收敛效率,显著提升了少样本学习和快速任务适应的性能,为元学习奠定了新的研究基础。
Nov, 2024