ES-MAML: 简化无 Hessian 元学习
本文研究了一类基于梯度的元学习方法的收敛性,探讨了它们在非凸损失函数下的最佳可达精度和整体复杂度。我们提出了一种名为 Hessian-Free MAML 的新变体算法,为该算法提供了理论保证,并且解答了这些算法在任务和数据集上学习率和批量大小的选择问题。
Aug, 2019
该论文提出了一个新的理论框架,以提供关于 MAML 算法在两种实际感兴趣的目标函数(重新采样情况和有限和情况)下收敛性的保证,并表征了在非凸情况下实现多步 MAML 的计算复杂度和收敛速率,建议内部阶段步长应选择与内部阶段步数 N 成反比来保证 N 步 MAML 有保证的收敛性,从技术上讲,它们开发了处理多步 MAML 的元梯度嵌套结构的新技术。
Feb, 2020
本文探讨了如何使用 Bayesian 模型和梯度下降进行 meta-learning,通过 MAML 算法应用到复杂的函数逼近器上,进一步提升了算法的性能,并利用近似推断和曲率估计技术提出了改进措施。
Jan, 2018
本研究提出了 Alpha MAML 扩展算法来引入一种在线超参数适应方案,以消除 MAML 训练超参数调整的需要并提高其稳定性,实验结果表明其对于 Omniglot 数据库的效果有显著的提升。
May, 2019
介绍了一种在 Riemann 流形上使用 Stiefel 近似的 Hessian-free 方法,通过使用 Stiefel 全连接层来增强基于梯度的元学习方法的表示重用,实验结果表明该方法在各种少样本学习数据集上优于现有方法,尤其是欧几里得对应的 MAML。
Feb, 2024
提出了 HyperMAML,这是 Model-Agnostic Meta-Learning 的一种新型泛化方法,其训练的更新过程也是模型的一部分,通过可训练的 Hypernetwork 来更新权重,超越了 MAML 并在标准 Few-Shot 学习基准测试中表现出色。
May, 2022
通过一级优化解决每个子任务并通过二级优化确定最优先前信息的模型无关元学习 (MAML) 被证明在非凸元目标上有全局最优性,其与内部目标的函数几何性和函数逼近器的表示能力有关。
Jun, 2020
提出了一种基于元学习的新框架来改进之前的模型无关元学习(MAML)方法,该方法采用多步损失(MSL)来解决 MAML 方法的稳定性问题,其实验表明 MSL 显著提高了训练过程的稳定性和整个系统的准确性,优于各种语言的 MAML 低资源 ASR 系统的字符错误率和稳定性。
May, 2022
本文主要研究元学习问题,即在任务分布情况下,如何获得在新的任务中表现良好、能够快速学习的智能体;分析了一系列算法,包括优化一阶导数的 MAML 和 Reptile 算法,对他们在少样本分类任务中表现良好的结果进行扩展和理论分析。
Mar, 2018