本文介绍了一种名为图感知积 - 和网络 (Graph-Induced Sum-Product Networks, GSPN) 的新的概率图形学习框架,它可以有迹可循地回答概率性问题。本模型与传统的神经网络模型的计算图有异曲同工之妙,因此在深度图网络方面具有优越性,同时具有一种纯概率模型的额外优势。通过定量实验和定性分析,证明了此模型在应对缺乏监督数据、处理缺失数据和图像分类等方面的竞争优势。
May, 2023
通过导出一种新的 Gibbs 采样的全部条件概率,通过边际化多个随机变量来快速获得后验分布,我们提出了一种可用于大规模 sum-product networks 的贝叶斯学习方法,同时还提出了一种超参数调优方法,通过在大规模 sum-product networks 中平衡先验分布的多样性和优化效率,改进了学习时间复杂度,并在超过 20 个数据集的数值实验中展示出了十倍到一百倍以上的计算速度和优秀的预测性能。
Jun, 2024
本文提出了一种新的基于 SPN 和深度神经网络的概率深度学习模型,称为 RAT-SPNs,该模型具有充分评估数据似然,任意边缘化和条件任务的优势,并且仍然可解释为生成模型,并保持了良好的校准不确定性,从而使其高度鲁棒性和自然地检测异常值和独特样本。
Jun, 2018
提出了一种新型深层架构 —— 求和积网络(SPN),通过学习和推理,SPNs 能够实现比标准深层网络更快和更准确的图形建模推理,例如在图像完成任务方面表现优异。
Feb, 2012
本文提出了一种称为深层结构高斯过程混合专家的随机过程模型,该模型不仅可以进行确切的后验推断,而且具有吸引人的计算和内存成本,并且在作为高斯过程近似时可以比以前的近似方法更一致地捕捉预测不确定性。在各种实验中,我们展示了这种方法的低近似误差和竞争优势。
Oct, 2019
介绍了使用半监督学习来学习 Sum-Product Networks 的参数,并证明该方法具有计算效率高、不强制要求数据分布、能保证性能、可以进行生成和判别学习等多种优势.
Oct, 2017
本研究介绍了一种名为 MiniSPN 的简化版本的 LearnSPN 算法,它可以快速地处理在实际应用中常见的缺失数据和异构特征,实验表明在两个具有高缺失率和混合离散和连续特征的 Google 知识图谱和标准基准数据集上 MiniSPN 表现良好。
Feb, 2016
本文提出了一种统一的方法来学习 Sum-Product networks (SPNs) 的参数,在混合模型的角度下,我们表征了基于最大似然估计 (MLE) 原理的学习 SPNs 的目标函数,并展示了优化问题可以被转化为一个符号函数规划的形式。同时,我们使用顺序单项逼近(SMA)和凸凹过程(CCCP)构建了两种 SPNs 参数学习算法,这些方法自然地采用了乘法更新,从而有效地避免了投影操作。通过统一的框架,我们还展示,在 SPNs 的情况下,CCCP 导致与期望最大化(Expectation Maximization,EM)相同的算法尽管它们在一般情况下是不同的。
Jan, 2016
本文介绍了一种在线学习连续 SPN 与高斯叶的结构和参数的技术,使得 sum-product 网络的结构学习和参数学习更为便捷。
Jan, 2017
介绍了一种名为图结构和积网络的概率方法,可用于机器人领域的结构预测问题,演示了该方法如何通过处理机器人在大规模办公空间中的嘈杂拓扑关系来提高关于语义概念描述的推断,并显示 GraphSPNs 始终优于传统基于无向图模型的方法。
Sep, 2017