解释和适应图形条件平移
综述研究了图学习中的分布转变问题及解决方法,将现有的图学习方法分为图领域适应学习、图越域学习和图持续学习三种关键场景,详细讨论了这些场景下的现有进展,并对该领域进行了潜在应用和未来研究方向的分析。
Feb, 2024
使用符合预测(conformal prediction)技术,此论文提出了一种用于解决图半监督学习中图神经网络(GNN)预测不确定性问题的方法,该方法还引入了一种新的损失函数来优化模型预测,并在标准图基准数据集上进行了验证。
May, 2024
本文提出一种称为 Shift-Robust GNN(SR-GNN)的方法,用于解决在真实世界场景下,由于数据获取昂贵和天生偏见而导致的数据采样不均衡问题,SR-GNN 可以适应节点标签采集偏差和数据分布转移等差异,从而实现半监督学习任务中的更好泛化效果。在多个实验中,SR-GNN 在常见 GNN 基准数据集上的表现优于其他 GNN 基线,并成功消除了偏差训练数据引入的至少~40% 的负面影响。
Aug, 2021
本研究提出了一种名为 FR-GNN 的通用框架,用于进行特征重构,并在测试时间内将这些重构特征整合到 GNN 的消息传递机制中,从而有效降低分布转移并提高测试性能。
Aug, 2023
该论文提出了一种新的自我训练方法 (DR-GST),通过 dropout 变分推理和 dropedge 变分推理来恢复标注数据集的分布,并利用 loss 校正方法来提高伪标签的质量,在五个基准数据集上都取得了良好的效果。
Jan, 2022
图神经网络(GNNs)在图结构化数据上取得了显著的性能。然而,GNNs 可能从训练数据中继承偏见,并根据敏感属性(如性别和种族)做出具有歧视性的预测。最近,对于 GNNs 的公平性保证引起了越来越多的关注,但是所有这些研究都基于一个假设,即训练和测试数据来自同一个分布,即训练数据和测试数据来自同一张图。分布变化会导致图公平性性能降低吗?分布变化如何影响图公平性学习?从理论角度上来说,这些开放性的问题在很大程度上是未经探索的。为了回答这些问题,我们首先从理论上确定了决定图偏见的因素。随后,我们探索了影响测试图上公平性的因素,其中一个值得注意的因素是训练图和生成图之间某些群体的表示距离。在我们的理论分析的启发下,我们提出了我们的框架 FatraGNN。具体而言,为了保证在未知的测试图上的公平性表现,我们提出了一个图生成器,可以产生具有显著偏见和不同分布的多个图。然后,我们在训练图和生成图之间最小化每个特定群体的表示距离。这使得我们的模型能够在具有显著偏见的生成图上实现高分类和公平性性能,从而有效处理未知的测试图。在真实世界和半合成数据集上的实验证明了我们模型在准确性和公平性方面的有效性。
Jan, 2024
本研究提出一种基于规则化策略的方法,能够在只有训练数据而没有测试数据的情况下,提高图神经网络在更大规模的图上的泛化能力,从而改善图分类的性能。实验结果表明,流行的 GNN 模型在我们的规则化策略下,在 50% 规模最小的图上进行训练,在 10% 规模最大的图上进行测试时,性能提高了达到 30%。
Jul, 2022
本文提出了一种名为 GTrans 的图形变换框架,通过在测试时自适应和改进图形数据,从数据角度来解决图神经网络(GNN)所面临的数据质量问题,经实验表明,GTrans 在改善性能方面表现最佳。
Oct, 2022
通过引入图学习不变领域生成(GLIDER)的新框架,本文在节点级别的属性分布和拓扑结构分布的共同分布转变的情境下,实现了优于基准方法的节点级别 OOD 广义化跨域模型。
Mar, 2024