- 梯度增强的合作式元学习
CML 是一种合作元学习框架,它通过向模型梯度中注入可学习的噪声进行模型泛化,而且引入无内部更新但有外部循环更新的合作学习者来增强梯度以获得更好的元初始化参数。CML 适用于梯度为基础的元学习方法,在少样本回归、少样本图像分类和少样本节点分 - 理解迁移学习和基于梯度的元学习技术
深度神经网络、元学习、微调、MAML 和数据分布
- 过拟合元学习的泛化性能理论特征化
本文研究了使用高斯特征的线性回归模型下过拟合元学习的泛化性能,发现过拟合的 MAML 最小 L2 规范解可以有效降低泛化误差。
- CVPR具有几何自适应预条件器的元学习
提出了 Geometry-Adaptive Preconditioned gradient descent (GAP) 算法,该算法利用 Riemannian metric 条件优化了 inner-loop 中的 preconditione - 自然语言理解金融任务的模型无关元学习
本文研究了模型无关元学习算法(MAML)在低资源金融自然语言理解(NLU)任务中的应用,证明了该算法可使模型快速适应低资源情境并获得最佳性能。
- 元学习用于参数高效微调
本篇研究证明,考虑下游微调方法会提高轻量级微调技术的性能,通过使用 MAML 和优化元学习技术为轻量级微调方法进行预先训练,我们可以使受过训练的语言模型适合轻量级微调,从而在跨语言 NER 微调中获得高达 1.7 分的收益。
- 低资源语音识别的改进元学习
提出了一种基于元学习的新框架来改进之前的模型无关元学习(MAML)方法,该方法采用多步损失(MSL)来解决 MAML 方法的稳定性问题,其实验表明 MSL 显著提高了训练过程的稳定性和整个系统的准确性,优于各种语言的 MAML 低资源 AS - MAML 和 ANL 能够证明地学习表示
本文证明了两种常用的梯度基元学方法 MAML 和 ANIL 及其一阶近似能够在给定任务集合中学习共同的表示。具体地,在多任务线性表示学习设置中,它们能够以指数速率恢复实际表示。此外,本文揭示 MAML 和 ANIL 恢复底层表示的驱动力是它 - ICCV基于优化元学习的摄像头畸变感知视频中的 3D 人体姿态估计
本文提出了一种利用 MAML 算法、通过生成二维关键点的合成畸变数据,快速适应任何畸变环境的三维人体姿态估计模型,并通过使用骨长对称性和一致性进行推断阶段优化,以便在测试阶段成功适应各种程度的畸变并超越现有技术。
- ICLRMAML 是分类任务中的噪声对比学习器
本文提出了对 MAML 工作机制的新视角,将其类比为使用有监督对比目标的元学习器,并提出 zeroing trick 技术来缓解其干扰项,实验证明该技术提升了 MAML 在任务特定学习中的性能。
- ICLR复用预训练模型进行鲁棒的领域外少样本学习
本文提出一种在没有访问元培训练集的情况下,利用预训练 MAML 检查点来解决新的 few-shot 分类任务的方法,通过结合对抗训练和基于不确定性的步长适应,以及对算法进行改进,在 SGD 和 Adam 优化器上,在同一领域和跨领域基准测试 - 自适应超参数的元学习
本文提出了一种自适应的方法 (ALFA),在元学习 (MAML) 的框架下增强了快速适应过程,使用该方法可以从随机初始化中实现快速适应,且超越了 MAML 的表现,同时实验结果证明了超参数的自适应学习是近期少样本学习方法中同样重要的组成部分 - 元学习中建模和优化的权衡
本研究介绍并系统地定义了在元学习中准确建模和优化易用性之间的权衡,以及如何理论上和实证上研究这种权衡。
- 在线快速适应和知识积累:一种新的连续学习方法
在研究中,提出了一个更普遍的场景 OSAKA,即代理人必须快速解决新的(分布外)任务,并快速回忆起以前的任务。作者提出了 Continual-MAML 作为强有力的基准线,并在实验中证明,它比其他方法更适合新情况。
- 多步模型无关元学习的理论收敛性
该论文提出了一个新的理论框架,以提供关于 MAML 算法在两种实际感兴趣的目标函数(重新采样情况和有限和情况)下收敛性的保证,并表征了在非凸情况下实现多步 MAML 的计算复杂度和收敛速率,建议内部阶段步长应选择与内部阶段步数 N 成反比来 - 通过任务感知调节的多模态模型无关元学习
本文介绍了一种增强的 MAML 框架,该框架能够在多模态任务分布中识别任务模式并通过梯度更新快速适应,从而更有效地进行元学习,同时在回归、图像分类和强化学习等多种领域中进行了实验验证。
- ICLR快速学习还是特征重用?探讨 MAML 的有效性
利用剖析和潜在特征表示的分析研究,探讨了 MAML 算法是否效果显著取决于元初始化的能力还是特征重用的质量,结果显示后者更具重要性,因此提出了一个新算法 ANIL,在除了 MAML 训练网络的 (特定任务的) 头部外,移除了所有内部循环,并 - ICLR如何训练你的 MAML
本文提出了针对模型无关元学习(MAML)进行各种修改的方法,提出了 MAML++,它稳定了系统,并大大提高了 MAML 的泛化性能、收敛速度和计算开销。
- ICML元学习快速上下文适应
提出了 CAVIA 以进行元学习,这是 MAML 的一种简单扩展,它不容易出现元过拟合,易于并行化,并且更易于解释。CAVIA 将模型参数分成两个部分:服务于模型的上下文参数在个别任务上进行调整,并且共享参数进行元培训并跨任务共享。实验证明 - 鲍德温效应辅助的元学习
通过塑造深度学习算法的超参数和初始参数,鲍德温效应能够进化出少量样本的监督和强化学习机制,并能够基因调节强烈的学习偏好,并且相比于 MAML 来说更加通用。