- 紧支持上的对数凹采样:一个通用的近端框架
提出了一个支持各种投影选项的通用近端框架,基于凸紧致支撑体上定义的强对数凹分布进行采样,并与多种采样方法无缝集成,主要研究集中在约束采样的 Langevin 型采样算法,提供了 W1 和 W2 误差的非渐进上界,详细比较了这些方法在约束采样 - Metropolis-Adjusted Langevin 算法的最优维度依赖
该文研究了非渐近情况下,基于新的技术 ─ Metropolis 调整的投影特征,将 MALA 算法的分析简化到 Langevin SDE 分析领域,从而证明了在一定条件下,MALA 算法得到的混合时间为 O (d^(1/2))
- 学习具有 Tsybakov 噪声的半空间的多项式时间算法
本文首次提出了针对在 Tsybakov 噪声情况下 PAC 学习均匀半空间的可行的多项式时间算法,并且证明了该算法对于如对称型对数凹分布之类的广泛应用的分布成功率显著
- 镜像朗之万扩散的指数遍历性
研究了一种从不合适条件的对数凹分布中进行采样的方法,证明了其具有无关维数和目标分布的快速收敛速率,进一步应用于优化中,提供了一种基于内点法的策略来从凸体上分布中进行均匀分布采样,这一方法新颖性的体现在于指出了 chi-squared div - 在结构化分布下学习带有 Massart 噪声的半空间
在特定分布的 PAC 模型下,我们针对学习带有 Massart 噪声的半空间问题进行了研究。我们提出了第一种基于 SGD 的、针对广泛分布(包括对数凹分布)的问题求解的计算机高效算法,并解决了先前研究中的一个悬而未决的问题。
- 随机中点法用于对数凹采样
本研究提出了一种基于欠阻尼 Langevin 扩散的 MCMC 算法来解决从对数凹分布中采样问题,并设计了一种新的模拟随机微分方程的框架,该框架不仅可以解决对数凹采样问题,还可以应用于任何涉及模拟(随机)微分方程的问题。
- 在 Bernstein 矩假设下的二次形式浓度
研究关于独立次高斯随机变量二次形式的集中性结果,当随机变量的矩满足 Bernstein 条件时,Hanson-Wright 不等式的方差项可以得到改善,所有对数凹次高斯分布都满足 Bernstein 条件。
- 数据可视化中 t-SNE 算法的分析
通过建立数据可视化形式的二维嵌入来正确地分离数据簇,使用 t-SNE 启发式的数据可视化方法在广泛的应用场景中成为事实上的标准,该研究提供了一种正式框架和分析,以分析数据可视化问题下 t-SNE 的性能表现,并且在满足特定条件时能部分恢复聚 - 二阶哈密顿蒙特卡洛维度紧致界
本文研究哈密顿蒙特卡罗方法在采样强对数凹目标分布时的收敛速度,提出了一个比传统李普希茨海森常数条件更宽松的第三阶正则条件,并证明了二阶 “跳跃点” 算法的收敛速度为 $d^{1/4}$,并在合成数据的仿真实验中得到了验证。
- 超越对数凹性:使用模拟淬火 Langevin Monte Carlo 取样多峰分布的可证明保障
研究重点在于使用 Langevin 扩散和模拟退火方法构建一种 Markov 链,能够在考虑温度的情况下从多种形式的分布中进行快速采样。
- AAAI混合物的高效样本学习
提出了一种基于混合学习算法的 PAC 学习方法,该算法可用于密度估计中的概率分布,其中包含了学习概率分布,学习混合分布等,其中混合分布包括轴向高斯混合分布,高斯混合分布和对数凹分布。
- 具有高效性、稳健性的对数凹分布恰当学习
本文讨论了单变量对数凹分布的鲁棒适当学习问题,并提出了一种能够有效解决该问题的算法,该算法可以获得信息理论最优的样本量,并具有多样的应用。
- 熵障碍:一种简单且最优的通用自协调障碍
本文通过对数凹分布的基本几何和指数族内元素的基础对偶性证明了一致测度空间中凸体均匀测度的 Cramér 变换是一种 $(1+o (1)) n$- 自共轭障碍,改进了 Nesterov 和 Nemirovski 的开创性成果,这为具有最佳自共 - 在对数凹分布下线性分界器的主动学习和被动学习
该研究提供了关于线性分隔符的标签高效、多项式时间、被动和主动学习的新结果,并证明了在近乎对数凹的分布下,主动学习提供了超过被动学习的指数级改进。在此基础上,为这种问题提供了一种计算上高效的 PAC 算法,其样本复杂度是最优的 (最多相差一个 - 离散复合泊松测度的对数凹性、超对数凹性和最大熵特性
通过半群方法及非平凡扩展,对化合泊松分布在自然概率测量类中最大熵的充分条件进行了研究,同时也研究了化合二项分布及其 log-concave 分布的最大熵情况及其在组合数学中的应用。