AAAIMar, 2023

可扩展贝叶斯元学习通过广义隐式梯度

TL;DR本论文提出了一种新的隐式贝叶斯元学习 (iBaML) 方法,通过交叉造用隐式微分的优点来控制常规显式梯度下降算法的可扩展性问题,并且这个方法可以扩展学习平均值,量化相关的不确定性,有效地解决了内部优化轨迹带来的设计复杂度限制。作者通过精确的误差界限和大量的数值测试来验证该方法。