学习用于概率语义地图的图结构求和 - 乘积网络
本文介绍了一种名为图感知积 - 和网络 (Graph-Induced Sum-Product Networks, GSPN) 的新的概率图形学习框架,它可以有迹可循地回答概率性问题。本模型与传统的神经网络模型的计算图有异曲同工之妙,因此在深度图网络方面具有优越性,同时具有一种纯概率模型的额外优势。通过定量实验和定性分析,证明了此模型在应对缺乏监督数据、处理缺失数据和图像分类等方面的竞争优势。
May, 2023
提出了一种新型深层架构 —— 求和积网络(SPN),通过学习和推理,SPNs 能够实现比标准深层网络更快和更准确的图形建模推理,例如在图像完成任务方面表现优异。
Feb, 2012
本文提出了一种新的基于 SPN 和深度神经网络的概率深度学习模型,称为 RAT-SPNs,该模型具有充分评估数据似然,任意边缘化和条件任务的优势,并且仍然可解释为生成模型,并保持了良好的校准不确定性,从而使其高度鲁棒性和自然地检测异常值和独特样本。
Jun, 2018
本研究介绍了一种名为 MiniSPN 的简化版本的 LearnSPN 算法,它可以快速地处理在实际应用中常见的缺失数据和异构特征,实验表明在两个具有高缺失率和混合离散和连续特征的 Google 知识图谱和标准基准数据集上 MiniSPN 表现良好。
Feb, 2016
通过导出一种新的 Gibbs 采样的全部条件概率,通过边际化多个随机变量来快速获得后验分布,我们提出了一种可用于大规模 sum-product networks 的贝叶斯学习方法,同时还提出了一种超参数调优方法,通过在大规模 sum-product networks 中平衡先验分布的多样性和优化效率,改进了学习时间复杂度,并在超过 20 个数据集的数值实验中展示出了十倍到一百倍以上的计算速度和优秀的预测性能。
Jun, 2024
介绍了使用半监督学习来学习 Sum-Product Networks 的参数,并证明该方法具有计算效率高、不强制要求数据分布、能保证性能、可以进行生成和判别学习等多种优势.
Oct, 2017
本文提出了一种新的方法:结构化代理网络(SPN),它结合了条件随机场(CRFs)和图神经网络(GNNs)的优点,通过解决一个近似的优化问题来有效学习模型,用于无标签测试图上的节点标签推断,实验结果表明 SPN 优于许多竞争对手。
Apr, 2022
本文研究和探讨了和 Sum-Product Networks 有关的 Bayesian Networks 的理论联系,并给出了使用 Algebraic Decision Diagrams 来表示和转换 SPN 为 BN 的一个线性时间和空间复杂度的算法。同时,用 Variable Elimination 算法来恢复原始的 SPN,并且介绍了 SPN 的深度和对应的 BN 树宽的下界之间的联系。
Jan, 2015