应对少样本问题中的灾难性遗忘
本文提出一种新的贝叶斯模型无关元学习方法,结合可伸缩的基于梯度的元学习和非参数变分推断,通过一个有原则的概率框架去学习复杂的不确定性结构,并且在meta-update时使用鲁棒的贝叶斯meta-update机制防止过拟合。此方法在各种任务中展现了准确性和鲁棒性。
Jun, 2018
L2F method proposes task-and-layer-wise attenuation to reduce the influence of prior knowledge for faster adaptation and improved performance in few-shot learning tasks with neural networks.
Jun, 2019
本文提出了Look-ahead MAML算法及其在在线连续学习中的应用,通过调整元学习更新中每个参数的学习率实现更灵活、高效的控制灾难性遗忘,并在实际视觉分类任务中取得了优异的性能。
Jul, 2020
本文提出了一种新颖的元学习算法NestedMAML,该算法可以学习分配给每个训练任务或实例的权重,并在元训练阶段应用,从而有效地缓解了不想要的任务或实例的影响,比现有的元学习算法都更鲁棒。
Nov, 2020
本文介绍了一种名为MetaQDA的贝叶斯元学习模型,其特点是在元学习分类器层面上实现few-shot学习。实验表明,这种方法在跨领域few-shot学习中具有鲁棒的性能,并能更好地预测不确定性。
Jan, 2021
本文提出一种在没有访问元培训练集的情况下,利用预训练MAML检查点来解决新的few-shot分类任务的方法,通过结合对抗训练和基于不确定性的步长适应,以及对算法进行改进,在SGD和Adam优化器上,在同一领域和跨领域基准测试中优于“基准”MAML,并表现出对基础步长的选择具有更好的鲁棒性。
Mar, 2021
模型无关元学习(MAML)和其变体往往采用简单损失函数进行学习,为了更好地泛化,我们提出了一种新的元学习框架 MeTAL,其中损失函数适应于每个任务。
Oct, 2021
本文研究了在用户定义的关键词系统中增量引入新词类的少样本语音单词分类问题,并提出了通过模型无关元学习 (MAML) 的扩展来解决灾难性遗忘的问题。在 Google Commands 和 FACC 上进行的实验表明,我们的方法在快速学习少量词汇的分类问题上优于 MAML 的另一种扩展 OML。
May, 2023
在当前深度学习时代,为了在训练神经网络时使用随机梯度下降处理非平稳流数据时减轻遗忘现象,我们采用元学习范式来结合神经网络的强表示能力与简单统计模型对遗忘现象的抵抗能力,在我们的新颖元持续学习框架中,持续学习仅在统计模型中进行,而神经网络在原始数据和统计模型之间进行元学习,由于神经网络在持续学习过程中保持不变,它们免受遗忘现象的影响。该方法不仅实现了显著提高的性能,而且具有出色的可伸缩性,由于我们的方法与领域和模型无关,因此可以应用于各种问题,并与现有模型架构轻松集成。
May, 2024
本研究解决了现有模型无关元学习(MAML)在训练和推理阶段的不稳定性和计算效率低的问题。提出的两种算法通过在函数空间中重新定义优化问题和调整任务损失权重,提高了MAML的收敛效率,显著提升了少样本学习和快速任务适应的性能,为元学习奠定了新的研究基础。
Nov, 2024