关键词laplace approximations
搜索结果 - 4
- 贝叶斯参数高效微调克服灾难性遗忘
通过使用贝叶斯学习技术和 Laplace 逼近,我们展示了在更通用的参数高效微调(PEFT)框架中如何解决灾难性遗忘问题,并比较了使用对角和克罗内克逼近的方法在预训练知识保留上的性能差异。
- ICML使用神经切向核的随机边缘似然梯度
本研究介绍了一种基于贝叶斯模型选择和拉普拉斯逼近的方法,通过引入下界到边缘似然的线性化拉普拉斯逼近,用于选择深度学习的超参数优化,该方法可以使用随机梯度基于优化,并可以利用神经切向核估计。实验结果表明,该估计器可以显着加速基于梯度的超参数优 - 混合拉普拉斯逼近以改善深度学习后验不确定性
本文介绍了一种基于高斯混合模型后验的预测方法,通过对独立训练的深度神经网络的拉普拉斯近似加权求和,可以缓解深度神经网络对离群值的过于自信预测问题,并在标准不确定性量化基准测试中与最先进的基准进行了比较。
- Laplace 近似下的可学习不确定性
本文提出一种方法来训练拉普拉斯逼近神经网络中的不确定性,介绍了用于拉普拉斯逼近网络的不确定性单元,并通过不确定性感知目标来训练这些单元,以提高在不同不确定性量化任务中的性能表现。