当元学习遇上在线和持续学习:一项综述
该文总结了元学习(或学习 - 学习)领域的现状,旨在通过改进学习算法本身来解决深度学习中包括数据和计算瓶颈在内的传统挑战,并提出了一种更全面的元学习方法分类,并重点介绍了几个应用领域,如少样本学习和强化学习,并讨论了未来研究的未解决的问题和有前景的方向。
Apr, 2020
本文旨在开发一种方法,从传入的数据流中使用深度神经网络模型进行连续的在线学习,使用随机梯度下降算法来更新模型参数,并使用先验的中餐馆过程的期望最大化算法来开发和维护一种混合模型来处理非平稳任务分布。我们将元学习应用于基于模型的强化学习,以适应预测模型关键控制任务中的连续快速自适应。
Dec, 2018
在当前深度学习时代,为了在训练神经网络时使用随机梯度下降处理非平稳流数据时减轻遗忘现象,我们采用元学习范式来结合神经网络的强表示能力与简单统计模型对遗忘现象的抵抗能力,在我们的新颖元持续学习框架中,持续学习仅在统计模型中进行,而神经网络在原始数据和统计模型之间进行元学习,由于神经网络在持续学习过程中保持不变,它们免受遗忘现象的影响。该方法不仅实现了显著提高的性能,而且具有出色的可伸缩性,由于我们的方法与领域和模型无关,因此可以应用于各种问题,并与现有模型架构轻松集成。
May, 2024
元学习是通过系统观察不同的机器学习方法在各种学习任务上的表现,然后从这种经验或元数据中学习,以比以前快得多地学习新任务的科学。本章提供了该领域不断发展、令人着迷的最新概述,不仅可显著加速和改善机器学习流水线或神经结构的设计,还可以用数据驱动的方式学习新方法以取代手工设计的算法。
Oct, 2018
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
本文提出了一种利用可微贝叶斯变点检测方案的元学习方法,称之为 MOCA,使得元学习算法可以应用于不需要对数据进行离散任务分割的情况,我们在非线性元回归基准测试以及两个元图像分类基准测试中演示了这种方法的实用性。
Dec, 2019
在研究中,提出了一个更普遍的场景 OSAKA,即代理人必须快速解决新的(分布外)任务,并快速回忆起以前的任务。作者提出了 Continual-MAML 作为强有力的基准线,并在实验中证明,它比其他方法更适合新情况。
Mar, 2020
本文提出了一个框架,用于解决神经网络在数据分布不稳定时的忘记问题,该框架结合了元学习和持续学习技术的优点,避免了对任务边界的先验知识,并重点关注了如何更快地恢复性能。在监督学习情境下,我们展示了该框架的应用和效果。
Jun, 2019
利用 LSTM 神经网络实现元学习,并能将其与手工设计的算法进行对比,在实验中,我们学习了针对非线性可分数据集的一个具有两个隐藏层的 MLP 的学习算法,并且该算法能够成功地更新两个隐藏层的参数并且在类似的数据集上具有泛化性能。
Oct, 2016