该论文提出了一个新的理论框架,以提供关于 MAML 算法在两种实际感兴趣的目标函数(重新采样情况和有限和情况)下收敛性的保证,并表征了在非凸情况下实现多步 MAML 的计算复杂度和收敛速率,建议内部阶段步长应选择与内部阶段步数 N 成反比来保证 N 步 MAML 有保证的收敛性,从技术上讲,它们开发了处理多步 MAML 的元梯度嵌套结构的新技术。
Feb, 2020
本文研究了一类基于梯度的元学习方法的收敛性,探讨了它们在非凸损失函数下的最佳可达精度和整体复杂度。我们提出了一种名为 Hessian-Free MAML 的新变体算法,为该算法提供了理论保证,并且解答了这些算法在任务和数据集上学习率和批量大小的选择问题。
Aug, 2019
本文提出了 Look-ahead MAML 算法及其在在线连续学习中的应用,通过调整元学习更新中每个参数的学习率实现更灵活、高效的控制灾难性遗忘,并在实际视觉分类任务中取得了优异的性能。
Jul, 2020
通过一级优化解决每个子任务并通过二级优化确定最优先前信息的模型无关元学习 (MAML) 被证明在非凸元目标上有全局最优性,其与内部目标的函数几何性和函数逼近器的表示能力有关。
Jun, 2020
该研究提出了一种综合了元学习和在线学习范式的在线元学习模型,运用改进后的 MAML 算法,实现连续终身学习,实验结果表明该算法明显优于传统的在线学习方法。
Feb, 2019
本文研究了超模型学习中的 MAML 算法在监督学习问题的推广性质,探讨了训练 MAML 模型的任务和样本数量对其推广误差的影响。我们提出了一种新的稳定性定义,从而捕捉了任务数和每个任务样本数对 MAML 推广误差的作用。
Feb, 2021
本文介绍一种名为隐式 MAML 的方法,用于在少量数据下实现基于梯度的元学习,能够解决通过内层优化得到的结果进行求导时的困难,从而优雅地处理多个梯度步骤,实现在少样本下的图像识别精度的提升。
Sep, 2019
本研究提出了 Alpha MAML 扩展算法来引入一种在线超参数适应方案,以消除 MAML 训练超参数调整的需要并提高其稳定性,实验结果表明其对于 Omniglot 数据库的效果有显著的提升。
May, 2019
本研究介绍并系统地定义了在元学习中准确建模和优化易用性之间的权衡,以及如何理论上和实证上研究这种权衡。
Oct, 2020
我们介绍了一个基于模型的强化学习算法,使用非线性常微分方程来表示连续时间动力学。我们使用校准良好的概率模型捕捉认识不确定性,并利用乐观原则进行探索。我们的分析表明,在连续时间下,测量选择策略 (MSS) 的重要性显现出来,因为我们不仅需要决定如何进行探索,还要决定何时观察底层系统。当使用高斯过程 (GP) 对常见的 MSS 选择(如等距采样)建模 ODEs 时,我们的后悔界限是次线性的。此外,我们提出了一种自适应的、数据依赖的实际 MSS,当与 GP 动力学相结合时,也能够在明显更少的样本下达到次线性的后悔。在几个应用上,我们展示了连续时间建模相对于离散时间建模的优势,以及我们提出的自适应 MSS 相对于标准基线的优势。
Oct, 2023