本文提出了 Gibbs max-margin 监督主题模型的新型损失函数,通过引入增广变量和解析地消除 Dirichlet 变量,从而开发了简单的 Gibbs 抽样算法以解决多个潜在 SVM 子问题,且无需限制假设和解决 SVM 子问题,从而在许多分类任务中实现了时间效率和分类性能的显着提高。
Oct, 2013
本文提出了一种新的数据增强策略,基于多项式 Gamma 分布,用于贝叶斯模型中的后验推断。经过实验证明,该方法在回归模型中表现优异,且具有简单、高效等优点。
May, 2012
本文提出了一个基于二阶可观测矩的无监督估计潜变量模型的方法,包括概率主题模型和潜线性贝叶斯网络等广泛的模型,且不需要对潜变量的分布做出任何假设,可以处理主题或潜因子之间的任意相关性,并且提出了一个可行的学习方法通过 L1 优化在数值实验中进行了研究。
Sep, 2012
本文提出了两种基于监督学习的主题模型,分别用于分类和回归,能够考虑到实践中在不同的标注者之间遇到的多样性和偏见。同时,我们还开发了一种有效的随机变分推断算法,能够适应非常大的数据集,并在实验中证明了该模型相对于现有技术的优越性。
Aug, 2018
使用逻辑棒式分解法和泊松 - 伽马增强技术对多项分布进行重新定义,提出具有联合高斯似然的潜在变量,从而利用广泛的高斯模型贝叶斯推断技术,实现对具有相关性的离散数据的建模。
Jun, 2015
本文提出了一种新的边界方法用于估计软加函数期望,并展示了它如何应用于变分逻辑回归和高斯过程分类。与其他边界方法不同,我们的方法不需要扩展变分族或引入额外的参数来确保边界的紧致性。实验证明,这个边界方法比现有方法更紧致,而且计算速度显著更快,从而获得了最先进的变分后验性能。
Jun, 2024
本文提出了一种混合算法,将稀疏 Gibbs 采样的效率与在线随机推断的可扩展性相结合,用于分析包含 120 万本书(330 亿词)的语料库,在多个 Bayesian 隐变量模型中具有广泛的推广能力。
Jun, 2012
本文提出了一种基于改进的 softmax 似然函数的新的可扩展的多类高斯过程分类方法,该新似然函数具有两个好处:它可以导致良好校准的不确定性估计,并允许有效的潜变量扩充。该模型通过块坐标升高更新实现了快速的变分推断方法,具有快速的条件共轭性,既可以实现不确定性校准,又可以实现速度。我们的实验表明,与现有技术相比,我们的方法在具有良好校准的不确定性估计和具有竞争预测性能的情况下,可以快两个数量级。
May, 2019
本文提出一种基于 DMR 主题模型的 log-linear 先验方法,以元数据特征为参数,以模拟文档中词汇的分布和主题的分布。实验结果表明 DMR 主题模型可以超越以往的主题模型,从而提高了对文档元数据的建模能力。
介绍了一种新的统计模型 —— 监督潜在狄利克雷分配(SLDA),应用变分方法处理难以计算的后验期望,解决回答类型的多样性并预测新文档的回答数值。与现代正则化回归以及无监督 LDA 分析相比,SLDA 有显著优势。
Mar, 2010