元学习器的学习动力与学习者不同
利用 LSTM 神经网络实现元学习,并能将其与手工设计的算法进行对比,在实验中,我们学习了针对非线性可分数据集的一个具有两个隐藏层的 MLP 的学习算法,并且该算法能够成功地更新两个隐藏层的参数并且在类似的数据集上具有泛化性能。
Oct, 2016
深度学习需要大量数据来学习新任务,限制了其适用于数据充足的领域。元学习通过学习如何学习克服了这一限制。我们重新审视了元学习方法并在现代少样本学习基准上进行了测试。我们发现,在简单的少样本正弦波回归基准上,LSTM 意外地优于流行的元学习技术 MAML,但在更复杂的少样本图像分类基准上 LSTM 的表现较差。我们确定了两个潜在原因,并提出了一种解决这些问题的新方法,称为外积 LSTM(OP-LSTM)。与流行的元学习基线相比,OP-LSTM 在领域内少样本图像分类方面具有有竞争力的性能,在跨领域设置中的准确度得分提高了 0.5%到 1.9%。虽然这些结果本身并没有创造新的最先进技术,但 OP-LSTM 的进展与元学习领域的其他进展是相互独立的,并在图像分类中提供了新的洞察力,为一系列新的研究方向打开了可能性。为了可重复性的目的,我们公开发布了所有的研究代码。
Oct, 2023
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本研究综合了先前的工作,旨在建立一个关于 cognition 的 meta-learned 模型的研究计划,证明 meta-learning 可以用于构建 Bayes-optimal learning algorithms,实现对 cognitive theories 的更加广泛的范围的建模
Apr, 2023
本文提出一种使用时间卷积和软注意力的简单而通用的元学习器结构,命名为 SNAIL, 在广泛的元学习实验中实现了表现显著优于现有技术,并获得了当前最先进的性能。
Jul, 2017
本文提出了 Meta-Learning 中的过拟合问题,并使用信息理论框架讨论基于元学习数据增强的方法来解决这个问题。实验证明,该方法对最近提出的元规则技术有很大的补充作用。
Jul, 2020
通过构建基于组合语法的结构化任务分布和相同统计复杂度但没有明确的基于规则的结构的 “空任务分布”,比较人类表现与标准元学习代理在两个任务分布中的表现,发现虽然统计复杂度相当,但人类在结构化任务分布中表现更好,而代理在空任务分布中表现更好,这表明控制任务分布的谨慎构建是理解元学习者获得的策略及其与人类的差异之一种有价值的方法。
Oct, 2020
本文提出了一种名为深度元强化学习的方法,该方法使用递归网络,在一个强化学习算法上进行训练,但其递归动态实现第二个、完全分离的强化学习过程,通过一系列七个验验证明了这种方法的潜在优势并提出了其可能引发的神经科学方面的重要影响。
Nov, 2016
探索利用元学习概念来改善性能,尤其是通过损失函数这个常常被忽视的组成部分。损失函数是学习系统的重要组成部分,它代表了主要的学习目标,在系统成功优化该目标的能力上进行了量化。
Jun, 2024
在这篇论文中,我们回顾了基于记忆的元学习作为构建在目标类中适应任何任务的节约样本策略的工具,并通过基本算法模板提供构建近乎最优预测器和强化学习器的概念基础。此外,我们将记忆性元学习重新放入贝叶斯框架内,展示元学习策略接近最优,因为它们分摊了贝叶斯滤波之后的数据,其中适应在内存动态中实现为足够统计的状态机。基本上,基于记忆的元学习将概率序列推断的困难问题转化为回归问题。
May, 2019