高斯混合模型的期望最大化全局分析
本研究提出一个基于量子算法的 EM 算法版本,用于解决高维 Gaussian 混合模型拟合问题,相较于传统算法有更快的收敛速度和更高的精度,并且能够推广到指数族分布,提供同样的计算保障。
Aug, 2019
本研究提出 Expectation-Maximization 算法在混合线性回归方程式以两个成分收敛的新证明,揭示其在混合线性回归方程式中的变异,为此提出几种新思想。
Oct, 2018
在过参数化的设置中,我们研究了高斯混合模型(GMM)的梯度期望最大化(EM)算法,通过单个真实高斯分布生成的数据来学习具有 n > 1 个分量的一般 GMM。通过构建一个新的基于似然度的收敛性分析框架,我们严格证明了梯度 EM 以 sublinear 速率 O (1/√t) 具有全局收敛性,这是关于具有多于 2 个分量的高斯混合模型的首个全局收敛结果。子线性收敛速率是由于学习过参数化 GMM 的算法性质所导致的。我们还确定了学习一般过参数化 GMM 的新技术挑战:存在能够在指数步数内困住梯度 EM 的不良局部区域。
Jun, 2024
本文介绍了用期望最大化 (EM) 算法估计两个线性回归混合模型系数的收敛性,根据实验结果,我们发现算法需要在无限圆锥内开始初始化。同时发现,如果初始猜测与目标参数向量的余弦角足够大,则 EM 算法的样本分割版本可以高概率地收敛到真实系数向量。
Apr, 2017
本文提供了一个关于期望最大化 (EM) 算法应用于高维潜变量模型推断的一般理论。作者提出了一个新的高维 EM 算法,自然地融入了稀疏结构到参数估计中。基于估计值,作者提出了新的推论程序来测试假设并构建置信区间。这个算法针对广泛的统计模型,提供了高维最先进的估计和渐近推断的第一个可计算的方法。
Dec, 2014
本文提出了一种基于 EM 算法的正则化版本,该方法可高效地利用先验知识来应对样本数据较小的情况,并通过收缩估计量以实现正定的协方差矩阵更新,从而改善 EM 算法在 Gaussian 混合模型(GMM)处理中的性能问题。此外,基于真实数据的实验证实了该算法在聚类目的上的良好性能。
Jul, 2023
该论文提出了一种基于 Riemannian 优化方法的高斯混合模型参数估计算法,与 EM 算法相比表现更优,同时给出了非渐近收敛分析的随机优化方法。
Jun, 2017
本文开发了一个通用框架以证明 EM 算法及其变体(梯度 EM)的性能,分析分为两部分:在人口水平上处理这些算法(在无限数据的极限情况下),然后是基于一组有限样本的更新的结果。我们证明了我们的一般理论对于三个和不完整数据问题有一个具体的著名案例。
Aug, 2014