具有高效性、稳健性的对数凹分布恰当学习
本文提出了一种新的 $s$-concave 分布类别,基于凸几何工具研究了该分布类别并将其应用于学习算法中,在边缘化算子下提供了有关 $s$-concave 分布的性质和一些学习问题的收敛界限。
Mar, 2017
本研究提出了一种基于欠阻尼 Langevin 扩散的 MCMC 算法来解决从对数凹分布中采样问题,并设计了一种新的模拟随机微分方程的框架,该框架不仅可以解决对数凹采样问题,还可以应用于任何涉及模拟(随机)微分方程的问题。
Sep, 2019
本文提出了一种近似线性的多元常微分方程算法,用于解决样本采集问题,特别是针对 Hamiltonian Monte Carlo 的多维 logconcave 密度函数,拥有多项式对数深度。
Dec, 2018
证明了通过多尺度构造和具有与 Wishart 矩阵类似的查询下界技术,可以在任何常数维度下通过块 Krylov 算法最优地采样具有强对数凹和对数平滑分布的分布,同时连接到高斯分布的具有误差的查询下界。
Apr, 2023
针对独立同分布样本的密度的对数凹最大似然估计器的理论性质进行了阐述,对真实的基础密度为对数凹和误差模型两种情况进行了研究,证明了对于对数凹密度序列,分布收敛意味着强类型的收敛,而且在某些指数加权的总变异规范下甚至意味着 Hellinger 距离的收敛。在主要结果中,证明了所有对数凹密度中最小化 Kullback-Leibler 分歧的对数凹密度的存在性和唯一性,并且还展示了对于这些指数加权的总变异规范收敛于这个最小化器的对数凹最大似然估计器。在正确规定模型的情况下,这证明了估计器的一种强的一致性;在误设模型的情况下,它表明估计器收敛于最接近真实密度的 Kullback-Leibler 意义下的对数凹密度。
Aug, 2009
该研究论文讨论了如何使用结构化的 logconcave 样本算法来采样复合密度和 logconcave 有限和,使用近端点方法启发的降维框架来改善问题条件的相关性,并提出了一种获取大量梯度查询乘数的简单算法。
Oct, 2020
我们以具有未知均值的高斯分布的抽样为动机示例,通过扩散生成模型提供了在强对数凹数据分布假设下的收敛性行为的全面理论保证。我们的评估函数类使用的逼近是利普希茨连续函数,同时通过与相应的抽样估计相结合,对于与数据分布之间的 Wasserstein-2 距离等关键量感兴趣的最佳上界估计提供了显式估计。该论文还引入了基于 L2 准确评分估计假设的结果,以适用于各种随机优化器。该方法在我们的抽样算法上得到了已知的最佳收敛速度。
Nov, 2023
本文讨论了从定义在 R^p 上具有平滑和对数凹密度的分布中进行采样的问题,并通过考虑 Langevin Monte Carlo 方法及其变体对目标分布进行近似采样的误差来建立非渐近保证的界限,以及通过各种实验证明了建立保证的有效性。
Dec, 2014
通过变宽直方图的方法精准估算概率分布,从而实现高效的概率分布混合学习算法。分析了几种常见的概率分布类型,包括对数凹形分布,单调危险率分布和单峰分布,并表明它们具有少量宽度直方图的结构特性。应用该算法可近乎最优地解决这些混合学习问题。
Oct, 2012