该研究提出了一种新的概率模型 —— 贝叶斯核嵌入模型,它可以用于解决核学习中的核选择问题,并给出了一个简单、方便的边缘似然函数用于确定核超参数。
Mar, 2016
该论文提出了一种基于贝叶斯条件密度估计的无似然推断方法,通过有限的模拟数据进行初步的推断,引导后续的模拟,相较于 Monte Carlo ABC 方法,该方法需要较少的模型模拟来获得整个真实后验分布的准确参数化表示。
May, 2016
本研究提出了一种基于 Rademacher 复杂度界限的超参数学习框架,用于平衡数据拟合与模型复杂度,从而达到无需核逼近的可扩展核超参数调整方法,并证明本方法优于现行竞争者,可进一步扩展以融合有效应用深度神经网络的权重以提高泛化性能。
Sep, 2018
本研究提供了一种新的基于核回归的框架方法,使用随机傅里叶特征来实现大规模核学习,以选择合适的问题特定摘要统计量来近似真实条件概率分布,该方法在近似贝叶斯计算中有杰出表现。
Feb, 2016
通过将神经近似引入 ABC 中,我们提出了伪似然推理 (Pseudo-Likelihood Inference, PLI) 方法,使其在具有挑战性的贝叶斯系统识别任务中具有竞争力,并且相比于 SNPE,在更多数据可用时表现出更好的性能。
Nov, 2023
本章节在《近似贝叶斯计算手册》中发表,概述了两种估计不可计算似然性的方法,即基于模型根据统计量估计出的参数假设的贝叶斯人工似然法和使用一组约束来构建经验似然,或者使用近似方法来规避对模型的模拟。这两种方法的具体实施被展现在各种不同复杂度的模型中。
Mar, 2018
本文提出了一种新的学习 ABC 统计量的方法 - 使用 Score Matching 培训神经条件指数族,以近似似然函数;将该似然函数插入 MCMC 中进行采样,可以在不需要更多模型模拟的情况下重复此过程,效果与相关方法相当。
Dec, 2020
使用基于概率神经模拟器网络的近似贝叶斯计算方法,通过学习模拟数据的合成似然函数,自适应选择模拟操作,并利用获取函数对不确定性进行建模,无需事先定义拒绝阈值或距离函数,实现模拟容易应用于高维问题的准确高效的推断。
May, 2018
本研究提出了非参数贝叶斯规则的去条件化核均值嵌入,并且展示了其与任务转换高斯过程的后验预测均值的联系。这提供了贝叶斯解释和不确定性估计,解释了它们的正则化超参数,揭示了内核超参数学习的边缘似然函数。这些发现进一步促进了无似然推断和大数据的稀疏表征等实际应用。
Jun, 2019
本文介绍了一种基于 kernel 的 ABC 方法,它能够应对需要使用多个总结统计量的复杂问题,并表现出高效的推理性能。
May, 2012