Learning the structure of causal directed acyclic graphs (DAGs) is useful in
many areas of machine learning and artificial intelligence, with wide
applications. However, in the high-dimensional setting, it is challenging to
obtain good empirical and theoretical results without strong a
本研究探讨了动态图数据上节点特征生成机制的学习问题,并提出了一种连续得分优化方法,名为 GraphNOTEARS,该方法有效地刻画了节点特征生成过程中的同时关系和时滞交互关系之间的 DAG 结构,可以在一个简洁的方式下展现特征生成过程。实验表明,该算法在模拟数据方面表现优异,并能够学习到来自真实世界数据集的节点之间的联系。
通过将上下文特征映射到加权邻接矩阵上的有向无环图(DAG),并利用具有新颖投影层的神经网络,我们提出了一种处理上下文 DAG 问题的方法,该方法确保输出矩阵稀疏并满足无环性质的最近发展算法,并为学习上下文 DAG 提供了可伸缩的计算框架,同时提供了收敛保证和反向传播投影层的解析梯度。实验结果表明,这种新方法可以在现有方法失败的情况下恢复真实的上下文特定图。
本研究提出了针对因果有向无环图(DAGs)的干预设计的通用下限,并基于有向团树将 DAG 分解成可独立定向的组件,从而证明在任何 EC 中定向任何 DAG 所需的单节点干预数至少是每个基本图的链组件中最大团大小的一半的总和。另外,我们还提出了一个两阶段干预设计算法,其性能符合以最大团个数的对数乘性为界限的最优干预数,并通过合成实验验证了我们的算法可以比大多数相关工作处理更大的图形并且获得更好的最坏情况性能。
我们开发了一种新颖的卷积结构,专门用于从有向无环图 (DAGs) 的数据中学习。通过 DAGs,我们可以建模变量之间的因果关系,但它们的幂零邻接矩阵给开发 DAG 信号处理和机器学习工具带来了独特挑战。为了解决这个限制,我们利用了近期的进展,提供了 DAG 上信号的因果转变和卷积的备选定义。我们开发了一种新颖的卷积图神经网络,集成了可学习的 DAG 滤波器,以考虑图拓扑引起的部分排序,从而为学习 DAG 支持数据的有效表示提供了有价值的归纳偏见。我们讨论了所提出的 DAG 卷积网络(DCN)的显著优势和潜在限制,并使用合成数据在两个学习任务中评估其性能:网络扩散估计和源识别。DCN 相对于几个基线表现出有利的比较,展示了它的潜力。