- 非线性潜在层次模型的识别
本文研究了非线性潜在变量的分层因果模型的识别问题,并证明在一些缓和的假设下,可以实现因果结构和潜在变量的可识别性。
- IJCAI用结构霍克斯过程从离散时间事件序列中学习因果结构
本文提出了 Structure Hawkes Processes (SHPs) 用于从离散时间事件序列中学习事件类型之间的因果结构,利用瞬时效应解决因果关系同步发生的识别问题,并通过理论和实验结果验证了该方法的有效性。
- CF-VAE:利用 VAE 和因果流进行因果分离表示学习
本文提出了一种结合因果结构信息的新型流模型 —— 因果流,设计了 CF-VAE 模型,通过利用因果流增强 VAE 编码器的解缠结能力。进一步引入地面真实因素的监督,证明了该模型的解纠缠可识别性。在合成和真实数据集上的实验结果表明,CF-VA - 知识发现的因果模式归纳
本研究提出了一个数据集和模型 Torquestra,用于语义搜索和知识发现,有效挖掘具有相似因果意义组件的英文新闻文本。
- 可解释机器学习的因果依赖图
通过通过使用已知或假设的输入变量的因果结构,以产生监督学习模型的简单和实用解释,并将这些解释可视化,提出了因果依赖图,即 CDP。CDP 可以成为可解释的 AI 或可解释 ML 工具箱中的有力工具,并有助于科学机器学习和算法公平性的应用,也 - Trust Your ∇: 基于梯度干预的因果发现
本文提出了一种新的梯度干预目标方法,用于实验性设计的因果发现,该方法在模拟和现实世界数据集上进行了广泛的实验,并表现出与竞争基线相当的性能,甚至在低数据情况下超越了它们。
- MM概率逻辑编程中的程序解释
该研究提出了一种新方法,利用概率逻辑编程模型来生成精简且有因果结构的解释程序,使得用户可以根据可视述词并隐藏不感兴趣的细节。
- 因果世界模型的内在激励学习
研究探索通过推断环境因果结构以收集相关干预数据为手段,建立捕捉传感器运动交互背后真实物理机制的世界模型对于提高深度学习、强化学习、迁移学习和泛化能力至关重要。
- 使用因果和空间约束多任务网络进行人类移动预测
通过提出计算模型和学习框架,我们提出了一个 Causal and Spatial-constrained Long and Short-term Learner(CSLSL)模型,该模型可以隐式地建模个体的出行决策,并在下一个地点预测中显示 - 在稀疏机制转移假设下异质环境下的因果发现
本文探讨了在非独立同分布环境下学习因果结构的方法,提出了稀疏机制偏移假设,并应用于提出的机制偏移得分进行实证研究,结果证明了该算法具有较高的正确性和实用性。
- 弱监督因果表示学习
本文基于一组弱监督条件,通过隐式潜因果模型的方式,为无标签不完整数据集中的图像等数据探究了因果结构和因果变量的识别方法。
- 扩散因果模型用于反事实估计
提出 Diff-SCM 来解决如何从观察到的成像数据中估计反事实效果的问题,使用深度结构因果模型和生成式能量模型相结合的方法进行推理,并且在 MNIST 数据和 ImageNet 数据上证明了其优越性。
- 儿童和计算模型中的探索学习因果过度假设
本文提出一种具有可控因果结构的强化学习环境,分别从计算机模型和儿童实验两个角度,发现信息增益和儿童探索在因果环境下的显著差异,展望了这些发现对于强化学习算法有效探索和消除因果结构歧义的新研究方向。
- ICML为什么?解释支持学习关系和因果结构
本文研究了如何使用语言描述和解释方式来改善深度强化学习智能体的学习和推理能力,特别是对于复杂环境下的关联结构和因果结构的推断,结果表明该方法可以有效地解决数据分布不清晰和因果混淆等问题。
- 引导可解释神经网络的因果结构
通过交替干预训练的方法,将神经模型与因果模型进行对齐并将其纳入训练,实现在保留数据驱动学习能力的同时较好地表达因果结构,并在结构视觉、语言导航和自然语言推理任务上通过与多任务训练目标和数据增强的对比达到较好的效果,制备了较好的解释性神经模型 - MIRACLE: 通过学习缺失数据机制的因果感知填补
该研究提出了一个基于因果关系的缺失数据填补算法(MIRACLE),它可以同时建模数据丢失机制和鼓励填补方法与数据的因果结构一致,实验结果表明 MIRACLE 较其他方法在各种缺失情况下均有较好表现。
- 通过混合预言学习潜在因果关系图
研究了在存在潜在变量的数据中重构因果图模型的问题,提出通过将其还原为混合预言机来确定潜在表示和潜在因果模型,从而揭示了混合模型顺序学习和可观测和不可观测之间的双分图结构学习问题之间的联系,并提供了几个重构完整图模型的算法。
- 变分因果网络:对因果结构进行近似贝叶斯推断
本文提出了对基于结构性因果模型的图形变分推断的形式,通过参数化变分模型来模拟分布,并在参数数量与变量数量的指数无关的情况下进行可处理的训练。
- 机器学习中的越界泛化
研究探讨了机器学习中的问题,特别是当模型在不同于训练数据的数据上进行测试时,模型很容易出现失败的现象,主要依靠发现数据的因果结构、找到可靠的特征并进行推广算法等方面展开探讨。
- ICLR反事实生成网络
通过深度生成建模,我们将图像生成过程分解成独立的因果机制,从而产生反事实图像,提高了模型的新颖性和可解释性。在 MNIST 和 ImageNet 上的实验表明,这些反事实图像能够提高模型的抗干扰性,而且这个模型能在单 GPU 上高效训练。