梯度增强的合作式元学习
本文提出了对 MAML 工作机制的新视角,将其类比为使用有监督对比目标的元学习器,并提出 zeroing trick 技术来缓解其干扰项,实验证明该技术提升了 MAML 在任务特定学习中的性能。
Jun, 2021
提出了一种基于元学习的小样本学习框架,通过在元模型更新阶段引入鲁棒性正则化来提高模型的对抗鲁棒性,在此基础上,提出了一个通用的鲁棒性正则化的元学习框架,可以使用不带标签的数据增强和对抗性攻击技术来实现有效的鲁棒性训练。此外,引入辅助对比学习任务进一步提高了模型的鲁棒性。
Feb, 2021
本文介绍一种名为隐式 MAML 的方法,用于在少量数据下实现基于梯度的元学习,能够解决通过内层优化得到的结果进行求导时的困难,从而优雅地处理多个梯度步骤,实现在少样本下的图像识别精度的提升。
Sep, 2019
本研究提出了 Alpha MAML 扩展算法来引入一种在线超参数适应方案,以消除 MAML 训练超参数调整的需要并提高其稳定性,实验结果表明其对于 Omniglot 数据库的效果有显著的提升。
May, 2019
本文介绍了一种增强的 MAML 框架,该框架能够在多模态任务分布中识别任务模式并通过梯度更新快速适应,从而更有效地进行元学习,同时在回归、图像分类和强化学习等多种领域中进行了实验验证。
Oct, 2019
本文提出了一种基于多模态任务分布的 adaptative meta-learning 算法,并采用该算法来识别各种从多模态分布中采样的任务,以更快速地实现适应。结果表明该算法对于计算机视觉、强化学习和回归等多种任务领域都具有普适性。
Dec, 2018
本文提出了 Look-ahead MAML 算法及其在在线连续学习中的应用,通过调整元学习更新中每个参数的学习率实现更灵活、高效的控制灾难性遗忘,并在实际视觉分类任务中取得了优异的性能。
Jul, 2020
使用 MAML 算法作为案例,研究了元学习中潜在的数据泄漏问题,并提出了针对任务数据的成员推断攻击,以及用于保护任务数据隐私和防止攻击的噪声注入方法。实验证明了这些攻击对 MAML 的有效性以及适当的噪声注入方法在对抗这些攻击中的功效。
Jun, 2024
通过一级优化解决每个子任务并通过二级优化确定最优先前信息的模型无关元学习 (MAML) 被证明在非凸元目标上有全局最优性,其与内部目标的函数几何性和函数逼近器的表示能力有关。
Jun, 2020