关键词bayesian interpretation
搜索结果 - 8
- 深度学习力场中的能量和力的相干不确定性
在机器学习能量势下,力被常用作能量函数对原子位置的负导数。为了量化预测能量的随机不确定性,一种广泛使用的建模方法涉及对每个能量值预测均值和方差。然而,这个模型在通常的白噪声假设下不可微分,因此能量的不确定性并不自然转化为力的不确定性。本研究 - ICML基于贝叶斯视角的随机优化端到端学习
为了在随机优化中实现端对端学习,我们发展了一种基于贝叶斯解释的算法,并提出了一种训练决策映射的全新算法,用于输出经验风险最小化和分布式鲁棒优化问题的解决方案。通过对合成售货员问题和基于真实数据的经济调度问题进行数值实验,阐明了替代培训方案之 - ICML贝叶斯去条件核均值嵌入
本研究提出了非参数贝叶斯规则的去条件化核均值嵌入,并且展示了其与任务转换高斯过程的后验预测均值的联系。这提供了贝叶斯解释和不确定性估计,解释了它们的正则化超参数,揭示了内核超参数学习的边缘似然函数。这些发现进一步促进了无似然推断和大数据的稀 - 逆最优输运
该论文提出了一种通过噪声数据推断未知成本的方法,利用了前向最优传输问题和随机数生成方法作为基础,探讨了其在国际迁移流问题上的应用和不确定性量化。
- ICML变分 Dropout 稀疏深度神经网络
本研究采用变分丢失技术,提供了一种优雅的高斯丢失的贝叶斯解释,将其扩展到丢失速率无界的情况,提出一种减少梯度估计器方差的方法,并在每个权重的情况下报告第一个实验结果。有趣的是,在完全连接和卷积层中都导致极度稀疏的解决方案。这种效应类似于实证 - 早停法是非参数变分推断
本研究使用非参数变分近似后验分布的样本抽取来解释随机梯度下降,为基于最小下限的对数边际似然的超参数优化提供一种输出,包括神经网络等领域。
- 贝叶斯鼓励辍学
从贝叶斯的角度阐述了 dropout 的作用以及其对权重参数学习与预测的优化,实验证明了 dropout 的优化具有积极效果。
- 一种用于条件概率密度的神经贝叶斯估计器
本文介绍了一种基于神经网络和贝叶斯诠释的非参数光滑回归算法来估计条件概率密度函数 f (t | x),可应用于如最大似然拟合或预测任务等各种场景,并针对非高斯分布进行了自动处理。