学习脚本的隐马尔可夫模型
本研究重新探讨使用最新的神经模型方法实现隐藏马尔可夫模型(HMM)规模化的挑战,提出了一种方法来快速有效地在大规模状态空间中对 HMM 进行精确推断、紧凑参数化以及有效规范化,取得的实验证明,该方法比之前的 HMM 和 n-gram 方法更准确,为实现最先进的神经模型的性能作出了贡献。
Nov, 2020
本文讨论了如何从不知道缺失数据位置的数据中学习隐马尔可夫模型,在医学和计算生物学等领域中,这些缺失数据会成为使用隐马尔可夫模型的障碍。作者为这个问题提出了一种生成缺失数据位置的通用模型,并给出了两种学习算法,即(半)解析方法和 Gibbs 采样。在各种情况下对这些算法进行了评估和比较,测量了它们在模型错误规格化下的重建精度和鲁棒性。
Mar, 2022
本文提出了一种称为变分分层 EM (VHEM) 的算法,用于基于分层 EM 算法 (HEM) 对 HMM 进行聚类。该算法将给定的 HMM 集合聚类成相似的 HMM 组,并用集群中的 HMM 表示集群,以便更好地在时序数据的各种任务上使用。结果显示,VHEM 能够改善模型鲁棒性、减少学习时间和内存需求。
Oct, 2012
本论文提出一个名为 cloned HMM 的稀疏结构的 Hidden Markov Models 模型,通过这一结构,模型可以高效地学习变化顺序序列及处理不确定性,实现了对 n-gram、序列记忆器和 RNN 等方法的超越。
May, 2019
本文提出了一种学习算法来从数据中估计 HQMM 的参数,该算法可以模拟经典的 HMM 并放宽了在量子电路上建模 HMM 的限制,同时在合成数据上的试验表明,我们的算法可以学习与真实 HQMM 相同数量状态和预测精度的 HQMM,而用 Baum-Welch 算法学习的 HMM 则需要更多状态才能匹配预测精度。
Oct, 2017
本文提出了一种用于处理事件序列的概率模型 - 总结马尔可夫模型,通过选择合适的汇总功能函数,该模型的事件类型的发生概率仅依赖于其历史发生的事件类型的汇总,针对文本类数据进行了模型的构建和优化,通过实验检验模型的性能和发现能力。
May, 2022
通过使用 MOB-HSMM 模型,结合 LSTM 学习序列模式和 HSMM 模型,我们解决了黑箱机器学习模型应用于时序数据的可解释性问题,并成功检测到了高死亡风险事件和与重症监护病房中死亡风险相关的隐藏模式。
Jul, 2023
提出了一种新的算法,用于从已发射的数据中识别隐马尔可夫模型(HMM)的转移和发射概率。该算法尤其适用于样本长度足够长以准确估计二阶输出概率但不是更高阶输出的情况下。我们将方法应用于隐藏主题马尔科夫建模,并证明如果文档被建模为共享相同发射(主题)概率 HMM 的观察值,与简单但广泛使用的词袋模型相比,可以学习具有更高质量的主题。
Feb, 2018