BriefGPT.xyz
Ask
alpha
关键词
stochastic-gradient-based optimization
搜索结果 - 1
ICML
使用神经切向核的随机边缘似然梯度
本研究介绍了一种基于贝叶斯模型选择和拉普拉斯逼近的方法,通过引入下界到边缘似然的线性化拉普拉斯逼近,用于选择深度学习的超参数优化,该方法可以使用随机梯度基于优化,并可以利用神经切向核估计。实验结果表明,该估计器可以显着加速基于梯度的超参数优
→
PDF
a year ago
Prev
Next