Oct, 2024

通过拉普拉斯近似减少元学习中回归任务的方差

TL;DR本研究针对元学习中的高方差问题,尤其是在元回归任务中的任务重叠现象进行探讨。提出了一种新方法,通过拉普拉斯近似对每个支持点的后验方差进行加权,从而减少梯度估计的方差。实验结果表明,方差的减少显著提高了元学习的泛化性能。