Sum Product Networks 的表达效率
提出了一种新型深层架构 —— 求和积网络(SPN),通过学习和推理,SPNs 能够实现比标准深层网络更快和更准确的图形建模推理,例如在图像完成任务方面表现优异。
Feb, 2012
本文提出了一种新的基于 SPN 和深度神经网络的概率深度学习模型,称为 RAT-SPNs,该模型具有充分评估数据似然,任意边缘化和条件任务的优势,并且仍然可解释为生成模型,并保持了良好的校准不确定性,从而使其高度鲁棒性和自然地检测异常值和独特样本。
Jun, 2018
通过导出一种新的 Gibbs 采样的全部条件概率,通过边际化多个随机变量来快速获得后验分布,我们提出了一种可用于大规模 sum-product networks 的贝叶斯学习方法,同时还提出了一种超参数调优方法,通过在大规模 sum-product networks 中平衡先验分布的多样性和优化效率,改进了学习时间复杂度,并在超过 20 个数据集的数值实验中展示出了十倍到一百倍以上的计算速度和优秀的预测性能。
Jun, 2024
本文研究和探讨了和 Sum-Product Networks 有关的 Bayesian Networks 的理论联系,并给出了使用 Algebraic Decision Diagrams 来表示和转换 SPN 为 BN 的一个线性时间和空间复杂度的算法。同时,用 Variable Elimination 算法来恢复原始的 SPN,并且介绍了 SPN 的深度和对应的 BN 树宽的下界之间的联系。
Jan, 2015
本文介绍了一种名为图感知积 - 和网络 (Graph-Induced Sum-Product Networks, GSPN) 的新的概率图形学习框架,它可以有迹可循地回答概率性问题。本模型与传统的神经网络模型的计算图有异曲同工之妙,因此在深度图网络方面具有优越性,同时具有一种纯概率模型的额外优势。通过定量实验和定性分析,证明了此模型在应对缺乏监督数据、处理缺失数据和图像分类等方面的竞争优势。
May, 2023
本研究介绍了一种名为 MiniSPN 的简化版本的 LearnSPN 算法,它可以快速地处理在实际应用中常见的缺失数据和异构特征,实验表明在两个具有高缺失率和混合离散和连续特征的 Google 知识图谱和标准基准数据集上 MiniSPN 表现良好。
Feb, 2016
本文提出了一种统一的方法来学习 Sum-Product networks (SPNs) 的参数,在混合模型的角度下,我们表征了基于最大似然估计 (MLE) 原理的学习 SPNs 的目标函数,并展示了优化问题可以被转化为一个符号函数规划的形式。同时,我们使用顺序单项逼近(SMA)和凸凹过程(CCCP)构建了两种 SPNs 参数学习算法,这些方法自然地采用了乘法更新,从而有效地避免了投影操作。通过统一的框架,我们还展示,在 SPNs 的情况下,CCCP 导致与期望最大化(Expectation Maximization,EM)相同的算法尽管它们在一般情况下是不同的。
Jan, 2016
本研究提出了一种新的方法,利用概率电路模型(如 Sum Product Networks)的可处理性,在一定类型的密度函数下,计算 ELBO 梯度的情况下,不需要采样即可精确计算。该方法在三种类型的图形模型上展示了其可行性,并证明了概率电路是离散图形模型的变分推断的有前途的工具,因为它们结合了可处理性和表达性。
Oct, 2020
介绍了使用半监督学习来学习 Sum-Product Networks 的参数,并证明该方法具有计算效率高、不强制要求数据分布、能保证性能、可以进行生成和判别学习等多种优势.
Oct, 2017
本文提出了一种 SPN 增强方法,将 sum 节点解释为潜在变量(LVs),并指出以前的方法与 SPN 的完备条件冲突,未充分识别概率模型。作者给出了 SPN 的 EM 算法派生和 Viterbi 算法的正确性,同时在合成和 103 个真实数据集上得到了验证。
Jan, 2016