BriefGPT.xyz
Jan, 2019
神经网络架构的贝叶斯学习
Bayesian Learning of Neural Network Architectures
HTML
PDF
Georgi Dikov, Patrick van der Smagt, Justin Bayer
TL;DR
本研究提出一种基于贝叶斯方法的神经网络架构参数估计方法,通过学习这些参数的具体分布来实现。研究表明,具有学习结构的正则网络在小数据集上可以更好地泛化,而完全随机化的网络可以更强健地处理参数初始化。与基于随机搜索的架构搜索不同,所提出的方法依赖于标准的神经变分学习,不需要对模型进行重新训练,从而最小化计算开销。
Abstract
In this paper we propose a
bayesian method
for estimating architectural parameters of
neural networks
, namely
layer size
and
→