提出了一种基于修改的马蹄铁先验的多视图潜变量模型 MuVI,该模型能够在整个分析过程中将有限和嘈杂的领域知识融合到模型中,并且在癌症患者真实多视图数据集中推断出可解释和具有生物学意义的变异轴。
Apr, 2022
本文介绍了 LatentExplainer,这是一个自动化生成深度生成模型中潜变量语义有意义解释的框架,通过扰动潜变量和解释生成数据的变化,提供了一种系统的方法来理解和控制数据生成过程,增强了深度生成模型的透明度和可解释性。
Jun, 2024
从英国生物库人群数据集中派生低维嵌入空间可用于改善具有可观数据稀缺性的特定疾病的监督估计器,这会对各种医学数据科学应用程序产生重要影响。
Oct, 2021
本文提出了一种基于采样的变分分布表示方法,用于自然语言生成中 deep latent variable models,并通过最大化互信息的正则化来解决 posterior collapse 问题,进一步发展了 VAE,并在多个文本生成场景中证明了其有效性和通用性。
Aug, 2019
我们提出了一种无监督的潜在变量模型,可以从不同的实验数据模态中提取演化的共享和独立的潜变量,通过结合高斯过程因子分析和高斯过程变分自编码器的方法,我们在傅里叶域中参数化模型的潜变量,并在两个真实的多模态实验设置上验证了模型的有效性。
Oct, 2023
本文提出了一种全贝叶斯潜在变量模型,利用条件非线性独立结构学习高效的潜在表示;该模型能够捕捉极高维空间下的结构,可用于建模大规模未加工的图像,并通过从训练模型中的潜在空间中采样直接生成新图像;同时也演示了该模型在人体姿势预测中的应用,贝叶斯框架能够以一种合理的方式进行消岐,以包含数据动态特性的潜在空间先验。
Jun, 2012
本文提出了一种可解释自然语言理解的框架,使用一小部分人类注释的解释进行训练,并采用变分 EM 方法进行优化,同时提出了基于解释的自训练方法,在两个自然语言理解任务上进行实验,证明了该框架不仅可以在监督和半监督设置下进行有效的预测,还可以生成良好的自然语言解释。
Oct, 2020
本篇研究介绍了一种使用 SparseMAP inference 进行训练的方式,可以在维持可区分性的同时,实现从全局潜在结构建立不受限制的动态计算图,从而助力于深度神经网络建模的训练。
Sep, 2018
通过稀疏引导技术,SparseCBM 提供了对大型语言模型的全面解释,包括输入、子网络和概念级别,同时引入可解释的推断时间干预维度,在模型部署期间实现动态调整,通过实证评估证明 SparseCBM 在解释和改善模型不准确性方面具有深刻的理解能力。
Dec, 2023
本文基于最大后验 (MAP) 估计,提出了一种包含参数先验信息的贝叶斯推断层次结构,同时提供了相关的计算实例和应用案例,探讨了在高维数据下,在变量选择等问题中贝叶斯方法的优势与局限性。
Sep, 2010