关键词probabilistic topic models
搜索结果 - 7
- RankSum:一种基于排名融合的无监督提取式文本摘要
本文介绍了一种名为 Ranksum 的基于多维句子特征排名融合的单文本抽取式摘要方法,通过提取每个句子的主题信息、语义内容、显著关键词和位置,然后在无监督的方式下使用加权融合四个分数,将句子按照重要性进行排序。该方法利用概率主题模型确定主题 - 上下文化注意力嵌入的主题
通过设计不同的探针实验,使用 BERT 和 DistilBERT,我们发现注意力框架在模拟主题词簇时发挥了关键作用,这为探讨概率主题模型和预训练语言模型之间的关系铺平了道路。
- 关键词协助主题模型
本文提出了一种关键词辅助的主题模型,通过提供一小部分关键词,可以大大提高主题模型的测量性能,该模型具有更好的可解释性和文档分类性能,并且对主题数量的敏感性较小。
- AAAI在神经形态多芯片系统上训练概率主题模型
本文研究了如何在神经形态多芯片系统(NMS)上训练概率主题模型,提出了三种算法,一种是批量算法,另外两种是在线算法,使用了新颖的随机优化方法和高效的能量和存储策略,并成功用于 pLSI 和 LDA 训练,结果表明这些算法不仅能够与常规计算机 - 鲁棒贝叶斯建模通用方法
该研究论文开发了一种鲁棒贝叶斯建模的通用方法,能够保护数据不受离群值或其他偏差的影响,并且探讨了该方法在多个模型中的应用,包括线性回归,泊松回归,逻辑回归和概率主题模型。
- EMNLP发现弱相关文集主题相关性的快速灵活模型
本文介绍了两种概率主题模型:相关 LDA(C-LDA)和相关 HDP(C-HDP),通过采用基于 Metropolis-Hastings 和 alias 方法的并行采样算法,可以有效地模拟大规模的分析并解决分析大、非对称、潜在弱相关集合时可 - 在扩展限制下学习主题模型和潜在贝叶斯网络
本文提出了一个基于二阶可观测矩的无监督估计潜变量模型的方法,包括概率主题模型和潜线性贝叶斯网络等广泛的模型,且不需要对潜变量的分布做出任何假设,可以处理主题或潜因子之间的任意相关性,并且提出了一个可行的学习方法通过 L1 优化在数值实验中进