Jul, 2023

MetaDiff: 基于条件扩散的元学习用于少样本学习

TL;DR通过将极大化模型的学习能力赋予于少样本学习,即仅通过少量样本快速学习,是人工智能的一个核心挑战。本文提出了一种基于扩散模型的元学习算法 MetaDiff,通过将渐变下降优化器建模为扩散模型,并以去噪的方式对模型权重的优化过程进行建模,从而实现了高效的训练,大大减轻了内部路径的内存负担和梯度消失的风险,在少样本学习任务中优于现有的基于渐变的元学习算法家族。