预训练是否真的比元学习更好?
本文研究了元提示调整(meta prompt tuning)来探索元学习如何通过学习从其他相关任务中初始化提示嵌入来帮助改善 PT 中的跨任务推广。我们在广泛的适应设置中经验性地分析了代表性的元学习算法,并从任务相似性的角度提供了深入的分析。实验结果表明,MPT 的改进在分类任务中显著。
Feb, 2023
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024
本文提出一种在没有访问元培训练集的情况下,利用预训练 MAML 检查点来解决新的 few-shot 分类任务的方法,通过结合对抗训练和基于不确定性的步长适应,以及对算法进行改进,在 SGD 和 Adam 优化器上,在同一领域和跨领域基准测试中优于 “基准” MAML,并表现出对基础步长的选择具有更好的鲁棒性。
Mar, 2021
本文对元学习方法中的贝叶斯 MAML 进行了理论分析,发现在元测试中,相比于模型不可知元学习和隐式 MAML,贝叶斯 MAML 可以提供更低的元测试风险。
Mar, 2022
该论文提出了一种通过学习区分微调和适应性 PLMs 的方法,使用动态低秩重参数化和学习结构控制器来实现数据和参数高效的自适应,并在对话完成、摘要生成等任务上展示出明显提升。
Jul, 2022
本文研究了以元学习为基础的个性化联邦学习在无线环境中的泛化性能,通过研究信道受损对泛化和收敛之间的权衡关系,通过大量的数值实验证实了该理论。
Jun, 2024
提出了一种基于元学习的小样本学习框架,通过在元模型更新阶段引入鲁棒性正则化来提高模型的对抗鲁棒性,在此基础上,提出了一个通用的鲁棒性正则化的元学习框架,可以使用不带标签的数据增强和对抗性攻击技术来实现有效的鲁棒性训练。此外,引入辅助对比学习任务进一步提高了模型的鲁棒性。
Feb, 2021