- 可识别因果表示学习:无监督,多视角,和多环境
通过学习具有因果模型语义的潜在变量表示形式,此研究论文探讨了因果模型在人工智能中的应用和理论基础,重点关注可辨识性问题以及在无直接监督下的表示学习目标可行性。
- 利用环境结构:系统发展正则化鼓励解开的表征
通过从多个相关数据集和任务中推断潜在变量,我们开发了一种从基因表达预测表型等任务中学习潜在因果变量的方法,其中关键观点是基于基因表达引起的潜在变量与感兴趣表型之间的映射在密切相关的环境下变化稀疏。我们引入了树状正则化来建模稀疏变化,通过最小 - 将因果表示学习与动力系统结合用于科学
我们将因果表示学习与动力系统以及其假设联系起来,应用在可辨识的方法上,建立可辨识且实用的模型,从而解决下游任务,如分布外分类和治疗效果估计,并在真实气候数据中成功回答与现有气候变化文献相符的下游因果问题。
- 可识别的隐含神经因果模型
潜在维度加性噪声模型和潜在后非线性因果模型中的分布转变在因果表示学习中发挥重要作用,能够确定因果表示的可辨识性条件,并将其转化为实际算法,从而获得可靠的潜在因果表示。
- 关于因果表示的可重用性与组合性
DECAF 是一个从时间序列图像学习因果表示的框架,通过与现有的因果表示相结合,在新环境中准确表示只需很少的样本。
- 部分可观测因果表示学习的稀疏原则
从具有实例相关的部分可观测性模式的数据集中,通过在推断表示中实施稀疏性,我们提出了两种方法来估计潜在的因果变量。
- 通过开关变量在隐含因果模型中实现解放
在没有已知基准图结构的情况下,从观察数据和干预数据中学习因果表示需要进行隐式潜在因果表示学习。本文通过软干预在变分自动编码器(VAE)框架中处理隐式潜在因果表示学习,提出了一种模拟软干预效果的方法,采用设计的因果机制切换变量在不同因果机制之 - 学习可解释概念:统一因果表示学习与基础模型
通过结合因果表示学习和理解如何从数据中学习可理解概念的思想,本研究正式定义了一个概念的概念,并证明了它们可以从多样数据中被可靠地还原,合成数据和大型语言模型上的实验表明了我们统一方法的实用性。
- 从多个分布中学习因果表示:一个通用设置
在非参数的因果表示学习中,通过稀疏约束和适当的因果影响条件,可以恢复有向无环图的势化图,从而揭示潜在因果模型的潜在变量及其关系的特定且复杂的方式。
- 基于分数的因果表示学习:线性和一般变换
通过对干预进行建模,由一般的非参数潜在因果模型和将潜在变量映射到观测变量的未知变换进行干预学习,本文提出了基于评分函数的一类算法,既确保了可识别性又确保了可行性。
- 不变性与因果表示学习:前景与局限
在因果模型中,假定给定的机制对其他机制的变化是不变的。我们通过建立不可能的结果,表明仅靠不变性无法识别潜在的因果变量。结合实际考虑,我们利用这些理论发现来强调通过利用不变性来识别表示的需求需要额外的约束。
- 迈向气候模型数据的因果表示
应用因果表示学习中的单亲解码方法(CDSD)对多个气候数据集进行评估,重点关注排放、温度和降水,揭示使用 CDSD 作为更可解释和稳健的气候模型的跳板的挑战、限制和前景。
- 从一般环境中学习因果表示:可识别性和内在歧义
该论文研究因果关系表示学习,通过从我们观察到的低级数据中恢复高级潜在变量和它们之间的因果关系,假设可以访问从多个环境生成的观测结果。作者提出了一种可证明在无法使用硬干预的情况下所能达到的最佳可识别性概念,并针对线性因果模型和一般非参数因果模 - 从生物神经动力学中发现因果关系的注意力机制
该研究探索了使用转换模型学习具有复杂非线性动态的网络中的 Granger 因果关系的潜力,以神经生物学和生物物理学网络为例;研究主要集中于基于模拟神经动力学的概念验证研究,结果表明,用于预测神经群体动力学的转换模型的交叉注意模块有效地捕捉到 - 基于扩散的因果表示学习
通过扩散基础的因果表示学习 (Diffusion-based Causal Representation Learning,简称 DCRL) 算法,研究了因果表示学习的动态扩散模型,并证实了该方法在识别因果结构和因果变量方面具有可比性的效果 - MM多节点干预下识别线性混合因果表示
通过多节点干预数据学习因果表示并验证可识别性。
- 面向对象的架构实现高效因果表示学习
利用因果表征学习和面向物体的学习相结合,通过修改 Slot Attention 架构,开发出了一种利用稀疏扰动进行弱监督的物体中心化架构,以更少的扰动成功解缠多个物体的属性。
- 多模态数据的因果分解
利用多模态数据和物理约束来发现具有因果关系的重要特征的因果表示学习算法(causalPIMA)。通过可微分参数化和单个可追踪证据下限损失函数,在完全无监督的设置中学习变分自动编码器的有向无环图(DAG)的潜在空间,同时学习一种高斯混合先验和 - 通过观测变量分组使因果表示学习具备可辨识性
Causal Representation Learning (CRL) is an ill-posed problem combining representation learning and causal discovery, and - 因果表示学习的普适可识别性与可实现性
该研究论文主要关注于在一般非参数因果潜在模型和将潜在数据映射到观测数据的一般变换模型下的因果表示学习,通过使用潜在因果图中每个节点的两个硬解耦干预来建立可识别性和可实现性结果。