介绍了条件强对数凹模型的概念,该模型将数据分布因子化为强对数凹条件概率分布的乘积,并使用适应于数据分布的正交投影器来实现因子化,从而实现了有效的参数估计和抽样算法,并在物理字段等多个领域展示了该模型的实用性。
May, 2023
本文提出了一种新的 $s$-concave 分布类别,基于凸几何工具研究了该分布类别并将其应用于学习算法中,在边缘化算子下提供了有关 $s$-concave 分布的性质和一些学习问题的收敛界限。
Mar, 2017
研究重点在于使用 Langevin 扩散和模拟退火方法构建一种 Markov 链,能够在考虑温度的情况下从多种形式的分布中进行快速采样。
Oct, 2017
本研究提出了一种基于欠阻尼 Langevin 扩散的 MCMC 算法来解决从对数凹分布中采样问题,并设计了一种新的模拟随机微分方程的框架,该框架不仅可以解决对数凹采样问题,还可以应用于任何涉及模拟(随机)微分方程的问题。
Sep, 2019
通过投影步骤(与投影随机梯度下降类似),我们将 Langevin Monte Carlo(LMC)算法扩展到紧支持测度。我们的主要结果特别表明,当目标分布是均匀分布时,LMC 在 $\tilde {O}(n^7)$ 步内混合。我们还提供初步的实验证据表明,LMC 的表现至少与 hit-and-run 相当,而 Lov {\'a} sz 和 Vempala 证明了更好的混合时间为 $\tilde {O}(n^4)$。
Jul, 2015
本文研究了 Hamiltonian Monte Carlo 算法在强对数凹目标分布上的混合性能,并得出了基于维度的混合度量和用于从 π 中采样的 HMC 跳跃步的梯度评估相关定理。
Aug, 2017
通过采样不满足对数凹条件且仅具有弱耗散性的分布来解决深度学习中常见的不满足标准 Lipschitz 光滑性要求的问题,该采样问题要求考虑目标分布满足对数索伯勒夫或某种柯西不等式以及局部 Lipschitz 光滑性假设,通过引入一种与目标分布的增长和衰减特性相关的驯服方案,提供了关于 Kullback-Leibler(KL)散度、总变分和 Wasserstein 距离与目标分布的显式非渐进保证的采样器。
May, 2024
本文提出了一种近似线性的多元常微分方程算法,用于解决样本采集问题,特别是针对 Hamiltonian Monte Carlo 的多维 logconcave 密度函数,拥有多项式对数深度。
Dec, 2018
强瑞利分布是概率分布的自然推广,在其均匀形式的支持下,“自然的” Monte Carlo Markov Chain 快速混合;此外,该证明还暗示 Markov Chains 可以有效地生成 $k$ 确定性点过程的近似样本,这回答了 Deshpande 和 Rademacher 提出的一个开放性问题。
Feb, 2016
提出了一种基于特征函数的线性特征模型(LCM),利用稳定分布计算在图形模型中存在的重尾分布下的精确和近似推理,该模型不局限于稳定分布,并可适用于离散、连续或混合随机变量。
Aug, 2010