本文介绍了一种高效学习隐马尔可夫模型的算法,其样本复杂度不明确依赖于离散观察序列的数量,而是通过其谱属性隐含地依赖于该数量,这使得该算法适用于像自然语言处理这样具有大量观察值的领域。
Nov, 2008
本文讨论了如何从不知道缺失数据位置的数据中学习隐马尔可夫模型,在医学和计算生物学等领域中,这些缺失数据会成为使用隐马尔可夫模型的障碍。作者为这个问题提出了一种生成缺失数据位置的通用模型,并给出了两种学习算法,即(半)解析方法和 Gibbs 采样。在各种情况下对这些算法进行了评估和比较,测量了它们在模型错误规格化下的重建精度和鲁棒性。
Mar, 2022
本文提出了一种学习算法来从数据中估计 HQMM 的参数,该算法可以模拟经典的 HMM 并放宽了在量子电路上建模 HMM 的限制,同时在合成数据上的试验表明,我们的算法可以学习与真实 HQMM 相同数量状态和预测精度的 HQMM,而用 Baum-Welch 算法学习的 HMM 则需要更多状态才能匹配预测精度。
Oct, 2017
本文提出了一种计算隐马尔可夫模型中上下文无关文法概率的算法,解决了计算一类非二义性上下文无关文法概率的问题,并提出了一种可用于多项式绑定的二义性上下文无关文法概率的随机多项式算法。
Jun, 2022
研究了隐马尔可夫模型及其扩展类 quasi-HMMs 生成的离散随机过程的建模问题,提出了基于有限长度的序列概率的两种模型,并通过张量分解技术,对这两种模型进行了比较和联系。
Nov, 2014
提出了一种新的算法,用于从已发射的数据中识别隐马尔可夫模型(HMM)的转移和发射概率。该算法尤其适用于样本长度足够长以准确估计二阶输出概率但不是更高阶输出的情况下。我们将方法应用于隐藏主题马尔科夫建模,并证明如果文档被建模为共享相同发射(主题)概率 HMM 的观察值,与简单但广泛使用的词袋模型相比,可以学习具有更高质量的主题。
Feb, 2018
本研究重新探讨使用最新的神经模型方法实现隐藏马尔可夫模型(HMM)规模化的挑战,提出了一种方法来快速有效地在大规模状态空间中对 HMM 进行精确推断、紧凑参数化以及有效规范化,取得的实验证明,该方法比之前的 HMM 和 n-gram 方法更准确,为实现最先进的神经模型的性能作出了贡献。
Nov, 2020
提出了一种新的、样本高效的无似然推断方法,用于估计隐式隐藏状态的高维度后验分布,通过利用马尔可夫性质,直接学习不可行的隐藏状态的后验分布,其在评估隐式 HMM 时,估计结果的质量与使用计算成本更高的 SMC 算法相当。
May, 2024
本文研究了过完备的 HMMs 学习问题,提出了正负两方面的新结果,界定了可处理和不可处理问题之间的边界,并讨论了如何学习能够捕捉长期依赖关系的过完备 HMMs。
Nov, 2017
本文提出了一种称为变分分层 EM (VHEM) 的算法,用于基于分层 EM 算法 (HEM) 对 HMM 进行聚类。该算法将给定的 HMM 集合聚类成相似的 HMM 组,并用集群中的 HMM 表示集群,以便更好地在时序数据的各种任务上使用。结果显示,VHEM 能够改善模型鲁棒性、减少学习时间和内存需求。
Oct, 2012