引导可解释神经网络的因果结构
介绍了一种基于 AIT 的方法,可快速识别数据生成过程的基础因果结构。该方法可用于离散和连续优化公式,并在模拟到实际数据的多个基准测试中表现出卓越的性能。(Translation: An AIT-based method is introduced to quickly identify the underlying causal structure of the data-generating process, which is applicable for both discrete and continuous optimization formulations of learning the underlying directed acyclic graph from data, and demonstrates superior performance on multiple benchmarks from simulated to real-world data.)
Sep, 2021
通过交互式干预训练(IIT)方法,本研究设计了一个端到端优化的多目标跟踪结构和训练协议来解释神经网络在 3D 检测,多目标跟踪和运动预测方面的决策,从而提供解释与可解释性。
Oct, 2022
我们提出了一种名为因果感知神经网络(CINN)的通用方法,用于将观测变量之间的层次化因果结构编码到神经网络中,从而提高其预测性能。通过将因果性结构化知识映射到神经网络的逐层设计中,CINN 通过连续优化问题将因果关系发现转化为定向无环图(DAG)学习来系统地从观测数据中发现因果关系,并通过专用架构和定制的损失函数将发现的层次化因果结构编码到神经网络中,实现了中间节点和叶节点的联合学习,显著提高了预测性能。
Nov, 2023
本研究提出了一个基于连续优化和神经网络的框架,以创建联合观测和干预数据模型的方法,能在不知情干预变量的情况下获得强大的基准结果,包括从合成图和来自 Bayesian Network Repository 的标准图中恢复结构。
Oct, 2019
本文提出了一种度量深度神经网络在训练过程中因果结构的度量方法,即有效信息(EI),用于评估每个层的因果影响节点和边缘在其下游目标上的度量。通过分解 EI 以检查每个层的敏感性、退化性和整合信息量,可以在 “因果平面” 上可视化每个层次的连接方式如何随时间变得更加敏感或退化,以及集成如何在训练期间改变。结果有助于理解深度神经网络的泛化能力,并为使 DNN 具有更高的泛化性和可解释性提供基础工具。
Oct, 2020
通过引入多个潜在因素,本研究提出了一种结构因果模型 (meta-SCM),以整合不同的 NLP 任务,并只使用与特定任务相关的因果因素来进行预测,从而在提高零样本能力的同时避免了伪相关性的影响。
Feb, 2024
本文研究了神经网络中因果关系的估计及维护,提出了一种有效的方法来捕获和维护直接和间接的因果关系,并在高维数据中量化因果属性。通过实验验证此方法学习的因果属性能够接近于真实效果。
Mar, 2023