因果正则化
本文介绍了一种基于深度学习的RINN模型,通过直接连接输入和潜在变量,使用修改后的结构和正则化目标函数来解决在高维数据中学习到潜在变量间因果结构的问题,并在模拟实验中验证了该方法的有效性。
Mar, 2020
本文提出了一种名为因果关系网络的算法,采用神经网络学习因果模型,并使用连续表示方法表示因果模型,从而更好地处理大量变量和利用先前的知识帮助学习新的因果模型,同时提出一种基于解码的评估指标。在合成数据的测试中取得了高精度和快速适应新因果模型的效果。
Aug, 2020
本文提出Causal Structure Learning (CASTLE) regularization对神经网络进行因果关系约束,实现变量之间的因果关系的发现,提高模型泛化能力。CASTLE regularization能有效地恢复只有因果关系的因素,而网格化的正则化方法只能恢复所有输入功能。理论分析和实验证明,与其他流行的基准约束相比,CASTLE能够更好地预测测试集并具有更好的泛化性能。
Sep, 2020
介绍了一种基于AIT的方法,可快速识别数据生成过程的基础因果结构。该方法可用于离散和连续优化公式,并在模拟到实际数据的多个基准测试中表现出卓越的性能。(Translation: An AIT-based method is introduced to quickly identify the underlying causal structure of the data-generating process, which is applicable for both discrete and continuous optimization formulations of learning the underlying directed acyclic graph from data, and demonstrates superior performance on multiple benchmarks from simulated to real-world data.)
Sep, 2021
本研究提出了一种正则化方法,通过领域知识中的先验知识来对齐神经网络的学习因果效应,包括直接和总因果效应,并在十二个基准数据集上进行实验和测试,表明该方法可实现神经网络模型的正则化,维护所需的因果效应而不牺牲准确性,而且在嘈杂的输入情况下还能提高模型准确性。
Nov, 2021
本文提出了一种深度神经体系结构,结合经验数据和先前的因果知识,从而学习变量之间的因果关系,并通过卷积和图神经网络在因果风险框架内提供了一种灵活和可扩展的方法,Empirical results include linear and nonlinear simulations (where the underlying causal structures are known and can be directly compared against),特别的,在生物医学领域的实验验证结果表明,深度学习方法能够应用于学习包含数千个变量的大规模问题中的因果网络
Dec, 2022
在给定描述不同领域/分布共享的数据生成过程的因果图的基础上,通过强制执行足够的图推断条件独立性可以确定领域通用(非虚假的)特征表示。针对标准的输入-输出预测设置,我们将文献中考虑的图集合分类为两个不同的组:(i)那些在训练领域中的经验风险最小化器给出领域通用表示和(ii)那些不给出的情况。对于后一种情况(ii),我们提出了一个新的具有正则化的框架,该框架在没有关于虚假特征的先验知识(或代理)的情况下证明了足够用于确定领域通用特征表示。在实证方面,我们的提出的方法在(半)合成和真实数据方面表现出色,优于其他最先进的方法的平均和最差领域转移准确性。
Apr, 2024
通过开发一个全连接的神经网络,实现了Bayesian Causal Forest算法的神经网络因果推断架构,并将该方法应用于研究应激对睡眠的影响,展示了在模拟环境中性能的提升。
May, 2024