基于因果扩散的图表示学习用于分布外推荐
本文提出了一种名为 StableGNN 的基于因果关系的图神经网络框架,该框架从图数据中提取高级表示,并利用因果推断的区分能力帮助模型消除虚假相关性,具有良好的有效性、灵活性和解释性。
Nov, 2021
本文提出了一种基于因果偏好的推荐框架CausPref,该框架利用推荐特定DAG学习器进行因果学习,在处理隐式反馈过程中运用反偏好负采样技术,并在类型不同的超出分布情境下显著超越了基准模型。
Feb, 2022
本文通过引入因果关系,基于图神经网络框架提出一种面向在线广告的点击率预测模型(Causal-GNN),采用结构化特征表达学习方法(GraphFwFM)和GraphSAGE分别学习特征、用户和广告的图表示,并在三个公共数据集上的实验证明了本模型在AUC和Logloss上的优越性以及GraphFwFM在因果关系特征图上捕捉高阶特征表示的有效性。
Jan, 2023
用户偏好、推荐系统、混淆因素、因果图和潜在空间是本研究的关键词,研究探讨了混淆因素对用户偏好的影响和如何在潜在空间中建模,通过因果图的方式分离混淆因素和用户偏好。最后,提出了基于变分自动编码器的模型,命名为潜在空间中混淆因素的因果结构表示学习 (CSC),通过实验证明了该模型的优越性以及对混淆因素的可控性。
Nov, 2023
通过构建人工合成数据集和进行实验验证,本论文从因果学习的角度综合分析了各种图神经网络模型,在此基础上提出一种轻量且高度适应性的图神经网络模块,以增强其因果学习能力。
Dec, 2023
在这篇综述中,我们针对当前图神经网络(Graph Neural Networks,GNNs)的信任度问题,介绍了最近关于启发于因果关系的GNNs的研究,并提出了基于因果学习能力的Causality-Inspired GNNs(CIGNNs)的分类和典型方法,以及它们如何缓解信任度风险。我们还总结了有用的资源,并探讨了在这个新兴领域中的几个未来方向,希望能够为新的研究机会提供启示。
Dec, 2023
通过因果关系分析揭示了图神经网络在节点分布迁移中一种存在于环境背景潜在混淆偏差,提出一种简明的、有原则性的方法通过因果推断来训练鲁棒的图神经网络,以抵消训练数据中的混淆偏差,并促进学习可泛化的预测关系。实验证明,该模型可以有效提高各类分布迁移情况下的泛化性能,在图的分布迁移基准测试中相比最先进方法最多提高27.4%的准确率。
Feb, 2024
在图神经网络的端到端图表示学习中,由于图数据中复杂的因果关系和规则使得模型准确捕捉真实数据关系变得困难。本文提出一种缓解策略,即将与图数据对应的规则或关系直接整合到模型中。然而,在图表示学习领域中,图数据的固有复杂性阻碍了建立一个包含整个数据集的普遍规则或关系的全面因果结构的推导。相反,只有专门的因果结构,揭示了约束子集内的特定因果关系。基于经验见解,我们观察到GNN模型在训练过程中收敛于这些专门的因果结构。因此,我们认为引入这些特定的因果结构有助于GNN模型的训练。在这一前提下,我们提出了一种新方法,使GNN模型能够从这些专门的因果结构中获得洞察力,从而提高整体性能。我们的方法特别从这些特定的因果结构的模型表示中提取因果知识,并引入交换干预来优化学习过程。理论分析证实了我们提出方法的有效性。此外,实证实验在不同数据集上一致地展示了显著的性能改进。
Jun, 2024
本研究解决了传统推荐系统中因果关系建模的不足,通过结合开放数据集和先验知识,构建了因果图。研究发现,只有少数变量有效影响反馈信号,这一观点与当前机器学习中日益增加变量数量的趋势形成鲜明对比。
Sep, 2024
本研究解决了图机器学习在分布外数据泛化中的挑战,强调因果驱动的方法在克服这些问题中的重要性。论文提供了对因果促成的图模型泛化的深入回顾,分类并描述了不同的方法及其相互联系,指出了因果性在提高图机器学习可信度中的应用潜力和未来研究方向。
Sep, 2024