- 通过极端稀疏化物理约束神经网络模型,提高斯坦变分推理的性能
科学机器学习的应用中,$L_0$ 稀疏化优于直接应用 Stein 变分梯度下降 (SGVD) 或投影 SGVD 方法,具有更好的鲁棒性、计算效率和性能,并且在噪声环境、外推区域以及收敛速度方面表现出卓越优势。
- 噪声 SVGD 在人口极限外的长时间渐近行为
Stein 变分梯度下降 (SVGD) 是一种广泛应用于机器学习领域的采样算法,通过迭代地移动一组相互作用的粒子 (代表样本) 来逼近目标分布,我们研究了噪声 SVGD 的长期渐进行为,并证明其极限集是良定义的,且该极限集随着粒子数目的增加 - 智能大规模随机接入的盲标准化 Stein 变分梯度下降检测
提出了一种基于极大似然估计模型的新型早期前导检测方案,通过探索 Hadamard 变换和小波变换之间的关系,发展出了改进的 Hadamard 变换(MHT),并通过引入块 MHT 层、缩放层、软阈值层、逆 Hadamard 变换和稀疏惩罚来 - 通过深度展开加速 Stein 变分梯度下降的收敛
本文中提出了一种深度展开的可训练 SVGD 算法,用于加速其收敛速度,并通过数值模拟实验证明了该算法相较于传统的 SVGD 变体具有更快的收敛速度。
- 基于 Stein 变分梯度下降的贝叶斯深度学习用于剩余寿命估计
预测性维护中用于评估物理系统剩余寿命的关键任务是通过深度学习提高预测性能,本研究提出使用 Stein 变分梯度下降算法训练贝叶斯深度学习模型来解决传统方法的局限性并提供性能改进,通过实验研究得出在模拟涡轮发动机老化数据中,通过 Stein - 基于粒子的广义 Wasserstein 梯度流的变分推理
该论文介绍了一种称为广义 Wasserstein 梯度下降(GWG)的粒子变分推断方法框架,基于 KL 散度的广义 Wasserstein 梯度流,可视为具有更广泛正则化器类的函数梯度方法,展示了 GWG 具有强大的收敛性保证,通过实验证明 - 一致视觉合成的协作分数蒸馏
在多样化的视觉模态中,利用大规模文本生成模型进行生成和编辑应用时,跨多图像实现一致性是具有挑战性的,本文提出了一种基于 CSD 的新方法,该方法利用 SVGD 将多个样本视为 “粒子” 进行更新,并组合它们的评分函数以同步地蒸馏一组图像的生 - 基于虚拟粒子随机逼近的可证明快速 SVGD 有限粒子变体
本文提出了两种计算有效(VP-SVGD 和 GB-SVGD)的 Stein 变分梯度下降算法,它们是特定的随机批处理逼近 SVG,具有证明的快速有限粒子收敛率。
- 使用本地线性模型的变分梯度下降
通过使用本地线性模型,提出了一种使用目标和粒子分布的样本计算梯度的新方法,可以替代需要计算目标得分函数的 Stein 变分梯度下降(SVGD)方法。
- CoinEM:基于粒子的变分推断无需调参的潜变量模型
介绍了两种用于通过边缘最大似然估计学习潜变量模型的新的基于粒子的算法,其中包括一种完全免调范的算法。我们的方法基于作为优化问题的边缘最大似然估计的视角:即作为自由能泛函的最小化。我们验证了我们算法在广泛的数值试验中的性能,包括几个高维设置。
- 探究高斯 - 斯坦变分梯度下降动态
通过使用正态分布初始化器逼近高斯目标样本并使用密度和基于粒子的实现方法,证明了 Stein Variational Gradient Descent (SVGD) 及其变体的特性,包括线性收敛和性能优越性,这对于深入理解 SVGD 和 Ga - 增强型消息传递 Stein 变分梯度下降
本文研究了 Stein Variational Gradient Descent(SVGD)方法收敛过程中粒子的各向同性特性,并证明了有限粒子的 SVGD 无法扩展到整个样本空间,而是倾向于在一定范围内围绕粒子中心聚集;我们提出了一种改进的 - 随机多目标采样梯度下降
我们提出了一种名为 Stochastic Multiple Target Sampling Gradient Descent (MT-SGD) 的方法,用于从多个未归一化的目标分布中进行采样。通过逐渐调整中间分布的流向多个目标分布,使采样粒 - Grassmann Stein 变分梯度下降
本研究提出了一种名为 Grassmann Stein 变分梯度下降 (GSVGD) 的新概念,用于处理维度高的目标分布问题,具备在高维空间中探索低维结构等特性。GSVGD 方法与其他变体方法相比,更新打分函数和数据的投影器并通过一种耦合的 - 神经变分梯度下降
本文提出了一种基于神经网络的参数化证见函数的改进 Stein 变分梯度下降方法,旨在解决传统 Stein 变分梯度下降中选择核函数的难题,经实验证明该方法在合成推理问题、贝叶斯线性回归和贝叶斯神经网络推理问题中有效可行。
- 关于斯坦变分神经网络集成
本研究研究了使用不同的 Stein 变分梯度下降方法来解决深度神经网络的 Bayesian 框架的问题,通过改善功能多样性和不确定性估计,逼近真实的 Bayesian 后验,并展示使用随机 SVGD 更新可以进一步改善性能。
- 斯坦变分梯度下降的非渐进分析
本文研究 Stein 变分梯度下降算法(SVGD),该算法通过优化一组粒子来逼近目标概率分布,我们提供了该算法的新颖有限时间分析,并提供了一种下降引理以及收敛速率研究,并将有限粒子实现的 SVGD 与其群体版本进行了收敛结果的对比。
- SVGD 作为卡方散度的带核 Wasserstein 梯度流
本论文介绍了 Stein Variational Gradient Descent (SVGD) 算法的一种新视角,将 SVGD 视为卡方散度的(核化)梯度流,提出了一种基于目标密度关联的拉普拉斯算子的谱分解实现的替代方法,称为 Lapla - ICLRStein 变分梯度下降与黑盒变分推断之间的等价性
该研究以内核梯度流为基础,证明了黑盒变分推断与 Stein 变分梯度下降之间的等同性,并且探讨了内核与各种算法行为的关系。
- 离散分布的斯坦变分推断
该研究提出了一种将离散分布转换为等效分段连续分布的方法,然后使用无梯度的 SVGD 进行高效的近似推理,并证明了该方法在离散图形模型的各种测试中优于传统的算法,同时优于其他广泛使用的集成方法,特别是在学习 CIFAR-10 数据集上的二值化