HMM 的维特比训练和最大似然估计的比较分析
利用隐马尔可夫模型(HMM)对端到端神经网络训练进行新颖的建模方法进行研究,该方法中隐藏状态之间的转移概率被显式建模和学习,通过 GPU 加速的前向后向算法实现标签和转移概率的同时训练,结果显示转移模型训练并不能提高识别性能,但对齐质量有积极影响,生成的对齐可用于最先进的维特比训练。
Oct, 2023
本文提出一种在线维特比算法,用于在远小于线性空间的情况下解码隐马尔可夫模型,该算法计算长度为 $n$,具有 $m$ 个状态的 HMM 所需的最大内存使用量期望可以低至 $\Theta (m\log n)$,用于基因发现的简单 HMM 模型的实验结果表明该算法的性能表现出色。
Mar, 2007
本文提出了两种新算法来解决在分层隐马尔可夫模型中推断状态序列时遇到的问题。这两种算法当应用于外在状态序列时,相比 Viterbi 算法有更高的性能表现。通过模拟和采用纳米孔测序数据评估了这些算法的表现。
May, 2023
通过模型合并策略,利用贝叶斯后验概率准则实现对隐藏马尔可夫模型的结构感知,具有更高的鲁棒性和准确性,并可应用于多发音单词模型的构建和语音识别的性能优化中。
May, 1994
本文介绍了一种高效学习隐马尔可夫模型的算法,其样本复杂度不明确依赖于离散观察序列的数量,而是通过其谱属性隐含地依赖于该数量,这使得该算法适用于像自然语言处理这样具有大量观察值的领域。
Nov, 2008
本文提出一种基于变分期望最大化算法的有效算法,用于解决多元 Hawkes 过程的因果交互网络学习问题,可以优化超参数并考虑模型参数的不确定性,实验结果表明在短观测序列下优于现有最先进的方法。
Nov, 2019
本文提出了一种新的算法,通过多项式预处理矩阵来解决时间均匀的 HMM 中 MAPD 问题,并将最坏情况下的运行时间改善了一个对数因子。
Nov, 2015
研究了隐马尔可夫模型及其扩展类 quasi-HMMs 生成的离散随机过程的建模问题,提出了基于有限长度的序列概率的两种模型,并通过张量分解技术,对这两种模型进行了比较和联系。
Nov, 2014
本研究重新探讨使用最新的神经模型方法实现隐藏马尔可夫模型(HMM)规模化的挑战,提出了一种方法来快速有效地在大规模状态空间中对 HMM 进行精确推断、紧凑参数化以及有效规范化,取得的实验证明,该方法比之前的 HMM 和 n-gram 方法更准确,为实现最先进的神经模型的性能作出了贡献。
Nov, 2020
本文提出了一种称为变分分层 EM (VHEM) 的算法,用于基于分层 EM 算法 (HEM) 对 HMM 进行聚类。该算法将给定的 HMM 集合聚类成相似的 HMM 组,并用集群中的 HMM 表示集群,以便更好地在时序数据的各种任务上使用。结果显示,VHEM 能够改善模型鲁棒性、减少学习时间和内存需求。
Oct, 2012