不定概率神经网络
引入了一种新的模型 ——CIPNN(连续不定概率神经网络),是基于 IPNN 的模型,用于处理离散潜在随机变量。本文提出了新的理论解决了连续潜在随机变量后验的计算问题,创新地提出了基于概率的自编码器 CIPAE,并且提出了一种视觉化方法及进行分类任务,实验结果表明该模型可以无限度地提高分类能力。
Mar, 2023
本研究调查了使用概率神经网络(PNN)来建模巧合不确定性的方法,PNN 生成目标变量的概率分布,能够在回归场景中确定预测均值和区间,实验证实了 PNN 在建模巧合不确定性方面的有效性,特别是在真实科学机器学习环境中,PNN 产生接近 0.97 的高精度输出均值估计和 0.80 的预测区间的高相关系数,为利用神经网络的复杂表示能力来揭示科学问题中的复杂输入输出关系的持续探索做出了贡献。
Feb, 2024
提出了一种新颖且轻量化的神经网络模型 —— 自然参数网络 (NPN),它允许使用任意指数族分布来建模神经元和权重,并且通过层之间的变换来生成与目标输出分布匹配的后验分布,实验结果表明,NPN 可以在现实世界的数据集上实现最先进的性能。
Nov, 2016
本文提出了一种创新性的解决方案,通过构建无限树状 PGMs 来精确对应神经网络,发现 DNNs 在前向传播过程中实际上是精确的 PGM 推理的近似,这种直接的近似揭示了 DNNs 的精神内核。
May, 2023
介绍了一种名为 NCP(神经条件概率)的新型算子理论方法,用于学习条件分布并重点关注推断任务。NCP 可用于构建条件置信区间、提取条件分位数、均值和协方差等重要统计量。通过利用神经网络的强大近似能力,该方法有效处理各种复杂概率分布,能够处理输入和输出变量之间的非线性关系。理论保证了 NCP 方法的优化一致性和统计准确性。实验证明,使用简单的具有两个隐藏层和 GELU 激活函数的多层感知机(MLP),我们的方法可以与领先的方法相媲美甚至超越,展示了在更复杂的架构中,基于理论的损失函数的最小化结构可以在不损失性能的情况下取得具有竞争力的结果。
Jul, 2024
Venn Prediction 是一种新的机器学习框架,用于产生校准良好的概率预测。本文基于神经网络提出了五种 VP 方法,通过实验评估它们在四个基准数据集上的性能,结果表明它们的输出在校准上表现出了优越性,相比传统的神经网络分类器有了明显的改进。
Dec, 2023
该研究介绍了一种使用深度神经网络在概率编程模型中分摊推断成本的方法,并将深度学习与概率编程方法的优势相结合。这种名为 “编译推断” 的方法将用通用编程语言编写的概率程序的语义规范转换为用神经网络规范语言表示的训练过的神经网络,从而实现了原始模型的近似推断。
Oct, 2016
本文介绍了一种能够辅助任何传统神经网络,包括大型预训练模型,能够用较少的计算量来预测不确定性的架构 ——epinet。使用 epinet,传统神经网络在预测标签上的表现优于包含数百个或更多粒子的非常大的许多集合,而且使用的计算资源和数据也大大降低了。
Jul, 2021
本文提出了一种全新的方法,即基于贝叶斯推断框架通过闭式计算对感知机进行训练和预测,其中感知机的权重和预测被视作高斯随机变量,为常用的激活函数,如 sigmoid 或 ReLU 提供了预测感知机输出和学习权重的解析表达式,该方法不需要计算昂贵的梯度计算,进一步允许顺序学习。
Sep, 2020