Jun, 2024

引入微小的因果结构进入图表示学习

TL;DR在图神经网络的端到端图表示学习中,由于图数据中复杂的因果关系和规则使得模型准确捕捉真实数据关系变得困难。本文提出一种缓解策略,即将与图数据对应的规则或关系直接整合到模型中。然而,在图表示学习领域中,图数据的固有复杂性阻碍了建立一个包含整个数据集的普遍规则或关系的全面因果结构的推导。相反,只有专门的因果结构,揭示了约束子集内的特定因果关系。基于经验见解,我们观察到 GNN 模型在训练过程中收敛于这些专门的因果结构。因此,我们认为引入这些特定的因果结构有助于 GNN 模型的训练。在这一前提下,我们提出了一种新方法,使 GNN 模型能够从这些专门的因果结构中获得洞察力,从而提高整体性能。我们的方法特别从这些特定的因果结构的模型表示中提取因果知识,并引入交换干预来优化学习过程。理论分析证实了我们提出方法的有效性。此外,实证实验在不同数据集上一致地展示了显著的性能改进。