大学习期望最大化
本研究提出一个基于量子算法的 EM 算法版本,用于解决高维 Gaussian 混合模型拟合问题,相较于传统算法有更快的收敛速度和更高的精度,并且能够推广到指数族分布,提供同样的计算保障。
Aug, 2019
在分布式数据中,通过结构化数据进行 EM 估计的集群结构可有效提高学习方案,最多需要 O (1) 次迭代以达到相同的统计准确性,只要 m 按照 e^{o (n)} 增长。
Aug, 2023
本文提供了一个关于期望最大化 (EM) 算法应用于高维潜变量模型推断的一般理论。作者提出了一个新的高维 EM 算法,自然地融入了稀疏结构到参数估计中。基于估计值,作者提出了新的推论程序来测试假设并构建置信区间。这个算法针对广泛的统计模型,提供了高维最先进的估计和渐近推断的第一个可计算的方法。
Dec, 2014
本文提出了一种通用的在线版本 Expectation-Maximisation 算法,适用于独立观测的隐变量模型,可以更直接地将模型分布与观测的边际分布联系起来,而无需进行完整数据分布的积分,实现了一定的简化和加快收敛的效果,并且还适用于条件模型,例如本文所举出的线性回归模型的混合模型。
Dec, 2007
本文提出了一种基于 EM 算法的正则化版本,该方法可高效地利用先验知识来应对样本数据较小的情况,并通过收缩估计量以实现正定的协方差矩阵更新,从而改善 EM 算法在 Gaussian 混合模型(GMM)处理中的性能问题。此外,基于真实数据的实验证实了该算法在聚类目的上的良好性能。
Jul, 2023
本文介绍了一种使用名为结构 EM 的算法进行贝叶斯模型学习的方法,该算法可以有效地从不完整数据中学习信念网络的结构,并可用于学习各种概率模型,包括贝叶斯网络和其变体。
Jan, 2013
混合线性回归是参数统计学和机器学习领域中一个被广泛研究的问题,本文研究了在没有生成模型的情况下,如何通过异态学习使用期望最大化算法 (EM) 和交替最小化算法 (AM) 进行混合线性回归的参数估计。
Jun, 2024
本文研究高维数据的聚类方法,探讨了 Expectation-Maximization 算法、基于 K-means 的获胜者通吃算法和基于模型的分层凝聚聚类算法,发现 EM 算法在质量上明显优于其他方法,并研究了各种初始化方案对 EM 算法产生的最终解的影响。
Jan, 2013
我们提出了一种新的自训练框架,用于结合模型和数据集的不确定性信息,通过使用期望最大化 (EM) 平滑标签和全面估计不确定性信息,并设计一种基础提取网络从数据集中估计初始基础,然后通过不确定性信息将其转换为真实硬标签,以在重新训练过程中迭代更新模型和基础。在图像分类和语义分割的实验证明了我们的方法在可信自训练算法中具有优势,在不同数据集上可以获得 1-3 个百分点的改进。
May, 2024