熵 - MCMC:轻松从平坦盆地采样
本研究旨在推广利用深度神经网络中的对称性,在保证不影响功能输出的前提下优化贝叶斯推断过程,并进一步给出适当的蒙特卡罗采样次数的上限来捕捉功能多样性,最终成功实现高效的贝叶斯不确定性量化。
Apr, 2023
深度神经网络的鲁棒性不确定性量化是许多深度学习应用的重要需求,贝叶斯神经网络是建模深度神经网络不确定性的一种有前景的方法,但从神经网络的后验分布中生成样本仍然是一个重大挑战。在本文中,我们展示了这些方法在采样分布时可能存在显著偏差,即使在步长趋近于零且批量大小足够大的情况下。
Mar, 2024
本文介绍了三种新的方法用于从多峰分布以及存在显著退化的分布中进行抽样和证据评估,以及一种更高效的评估证据不确定性的技术,并将其应用于天文数据中进行贝叶斯目标检测,展示了证据计算和参数估计的准确性和经济性。
Apr, 2007
本文提出了一种高效可扩展的神经隐式采样器,它通过利用神经转换将易于采样的潜在向量直接映射到目标样本,而无需迭代过程,从而实现低计算成本生成大批量样本,此外,本文还引入了 KL 训练方法和 Fisher 训练方法来有效地优化了所提出神经隐式采样器以捕获所需的目标分布。
Jun, 2023
我们提出了使用神经采样器来近似复杂多模态和相关后验分布的隐式分布的方法,并介绍了一种新的采样器架构,允许以百万个潜变量为基础的隐式分布,通过可微的数值逼近解决计算问题。我们的实证分析表明,我们的方法能够恢复大型贝叶斯神经网络中层间的相关性,这对网络的性能非常关键,但是一直以来都非常难实现。通过下游任务的实验,我们证明了我们的表达性后验优于最先进的不确定性量化方法,验证了我们的训练算法的有效性和学习出的隐式逼近的质量。
Oct, 2023
本研究提出了三种算法,用于将一个模型的单元重新排列以与参考模型对齐,以便在权重空间中合并两个模型,实验结果表明了单一流域现象在各种模型架构和数据集中的存在,并讨论了模型宽度和训练时间与模式连通性的相关现象,同时证明了单流域理论的一个反例。
Sep, 2022
研究表明, 使用全批处理的哈密顿蒙特卡罗方法可以提高贝叶斯神经网络的性能,并证明模型中选择的先验分布对性能的影响较小,但相比于深度集成、SGLD 等计算代价较小的方法,HMC 呈现出更接近于精确后验分布的预测分布;同时,研究发现贝叶斯神经网络在领域转移方面表现较差。
Apr, 2021
本文提出了利用 Hamiltonian Monte Carlo 方法的广义运动函数来改进随机梯度马尔可夫蒙特卡罗采样的效率,并讨论了克服这种泛化所引入的实际问题的技术。实验证明,该方法在探索复杂的多峰后验分布方面表现优秀。
Jun, 2017