学习超完备的隐马尔科夫模型
本文介绍了一种高效学习隐马尔可夫模型的算法,其样本复杂度不明确依赖于离散观察序列的数量,而是通过其谱属性隐含地依赖于该数量,这使得该算法适用于像自然语言处理这样具有大量观察值的领域。
Nov, 2008
该论文研究了学习隐马尔可夫模型的计算复杂性,提出了一种交互式访问模型,证明该模型可以使学习算法计算效率更高,为两种不同的学习隐马尔可夫模型设置下算法,并扩展到具有潜在低秩结构的分布类别。
Feb, 2023
研究了隐马尔可夫模型及其扩展类 quasi-HMMs 生成的离散随机过程的建模问题,提出了基于有限长度的序列概率的两种模型,并通过张量分解技术,对这两种模型进行了比较和联系。
Nov, 2014
本研究重新探讨使用最新的神经模型方法实现隐藏马尔可夫模型(HMM)规模化的挑战,提出了一种方法来快速有效地在大规模状态空间中对 HMM 进行精确推断、紧凑参数化以及有效规范化,取得的实验证明,该方法比之前的 HMM 和 n-gram 方法更准确,为实现最先进的神经模型的性能作出了贡献。
Nov, 2020
本论文提出一个名为 cloned HMM 的稀疏结构的 Hidden Markov Models 模型,通过这一结构,模型可以高效地学习变化顺序序列及处理不确定性,实现了对 n-gram、序列记忆器和 RNN 等方法的超越。
May, 2019
该论文研究了学习系统发育树和隐马尔可夫模型的问题,强调了非奇异性条件对于该学习问题的作用。作者提出了一个多项式时间复杂度的算法来学习非奇异系统发育树和隐马尔可夫模型。
Feb, 2005
利用隐马尔可夫模型(HMM)对端到端神经网络训练进行新颖的建模方法进行研究,该方法中隐藏状态之间的转移概率被显式建模和学习,通过 GPU 加速的前向后向算法实现标签和转移概率的同时训练,结果显示转移模型训练并不能提高识别性能,但对齐质量有积极影响,生成的对齐可用于最先进的维特比训练。
Oct, 2023
本文讨论了如何从不知道缺失数据位置的数据中学习隐马尔可夫模型,在医学和计算生物学等领域中,这些缺失数据会成为使用隐马尔可夫模型的障碍。作者为这个问题提出了一种生成缺失数据位置的通用模型,并给出了两种学习算法,即(半)解析方法和 Gibbs 采样。在各种情况下对这些算法进行了评估和比较,测量了它们在模型错误规格化下的重建精度和鲁棒性。
Mar, 2022
本文提出了一种学习算法来从数据中估计 HQMM 的参数,该算法可以模拟经典的 HMM 并放宽了在量子电路上建模 HMM 的限制,同时在合成数据上的试验表明,我们的算法可以学习与真实 HQMM 相同数量状态和预测精度的 HQMM,而用 Baum-Welch 算法学习的 HMM 则需要更多状态才能匹配预测精度。
Oct, 2017
提出了一种新的、样本高效的无似然推断方法,用于估计隐式隐藏状态的高维度后验分布,通过利用马尔可夫性质,直接学习不可行的隐藏状态的后验分布,其在评估隐式 HMM 时,估计结果的质量与使用计算成本更高的 SMC 算法相当。
May, 2024