混合线性回归模型的聚类数据中的 EM 算法
本研究提出一个基于量子算法的 EM 算法版本,用于解决高维 Gaussian 混合模型拟合问题,相较于传统算法有更快的收敛速度和更高的精度,并且能够推广到指数族分布,提供同样的计算保障。
Aug, 2019
本文提出了一种通用的在线版本 Expectation-Maximisation 算法,适用于独立观测的隐变量模型,可以更直接地将模型分布与观测的边际分布联系起来,而无需进行完整数据分布的积分,实现了一定的简化和加快收敛的效果,并且还适用于条件模型,例如本文所举出的线性回归模型的混合模型。
Dec, 2007
本研究提出 Expectation-Maximization 算法在混合线性回归方程式以两个成分收敛的新证明,揭示其在混合线性回归方程式中的变异,为此提出几种新思想。
Oct, 2018
研究基于极大似然原理的迭代算法 —— 期望最大化算法(EM)在统计模型中的参数估计,发现其仅能保证收敛于似然函数的极值点而非最大值点,尤其针对包含两个高斯分布混合的模型进行具体分析,最终建立了 EM 算法的统计一致性。
Aug, 2016
本文提供了一个关于期望最大化 (EM) 算法应用于高维潜变量模型推断的一般理论。作者提出了一个新的高维 EM 算法,自然地融入了稀疏结构到参数估计中。基于估计值,作者提出了新的推论程序来测试假设并构建置信区间。这个算法针对广泛的统计模型,提供了高维最先进的估计和渐近推断的第一个可计算的方法。
Dec, 2014
本文研究高维数据的聚类方法,探讨了 Expectation-Maximization 算法、基于 K-means 的获胜者通吃算法和基于模型的分层凝聚聚类算法,发现 EM 算法在质量上明显优于其他方法,并研究了各种初始化方案对 EM 算法产生的最终解的影响。
Jan, 2013
在过参数化的设置中,我们研究了高斯混合模型(GMM)的梯度期望最大化(EM)算法,通过单个真实高斯分布生成的数据来学习具有 n > 1 个分量的一般 GMM。通过构建一个新的基于似然度的收敛性分析框架,我们严格证明了梯度 EM 以 sublinear 速率 O (1/√t) 具有全局收敛性,这是关于具有多于 2 个分量的高斯混合模型的首个全局收敛结果。子线性收敛速率是由于学习过参数化 GMM 的算法性质所导致的。我们还确定了学习一般过参数化 GMM 的新技术挑战:存在能够在指数步数内困住梯度 EM 的不良局部区域。
Jun, 2024
本文介绍了用期望最大化 (EM) 算法估计两个线性回归混合模型系数的收敛性,根据实验结果,我们发现算法需要在无限圆锥内开始初始化。同时发现,如果初始猜测与目标参数向量的余弦角足够大,则 EM 算法的样本分割版本可以高概率地收敛到真实系数向量。
Apr, 2017