本文提出ifMixup,一种基于插值的正则化技术,通过在输入的节点特征向量和边表示之间进行线性插值来改善GNN在监督图分类中的泛化能力,该解决方案使用 Mixup 在图像上的高效策略进行设计,并添加虚拟节点来使两个图形拥有相同的输入大小,实验结果表明ifMixup显著改善了预测准确率,优于流行的图形增强和GNN方法。
Oct, 2021
本文提出了一种基于不变性学习和风险最小化的方法,实现图神经网络对于图结构数据上的越域通用性问题进行预测和预测不确定性的估计。
Feb, 2022
本文研究了通过Mixup进行图数据增强的方法,提出了一种为图分类提供软对齐的较为简单有效的Mixup方法S-Mixup,并探究了其对图神经网络性能和鲁棒性的影响。
Jun, 2023
我们提出了一种用于节点分类的新型混合增强方法,称为结构混合 (S-Mixup),该方法在混合节点时考虑了结构信息,通过图神经网络 (GNN) 分类器为无标签节点获取伪标签及其预测置信度,作为混合池组合的依据,同时利用从 GNN 训练中获得的边梯度,提出了一种基于梯度的边选择策略,用于选择与混合产生的节点相连的边,并通过在真实世界基准数据集上进行广泛实验证明了 S-Mixup 在节点分类任务中的有效性,发现 S-Mixup 提高了 GNN 的鲁棒性和泛化性能,特别是在异质情况下。
Aug, 2023
通过环境增强不可能学习到图中的不变表示,所以提出了一种基于可行假设的不变图学习框架GALA,利用助手模型来识别不变子图从而成功实现OOD泛化。
Oct, 2023
环境感知的动态图学习(EAGLE)框架通过建模复杂的耦合环境和利用时空不变模式,解决了动态图在分布转移下的超出分布预测的问题。
Nov, 2023
提出了一种统一框架,利用必要性和充分性概率来提取不变的子图结构(PNSIS),并采用集成方法利用虚假子图增强噪声数据的泛化性能,在图OOD问题上胜过现有技术,显示了在实际场景中的有效性。
Feb, 2024
本研究提出了一种新颖方法,通过生成层次化的语义环境来增强图不变性学习,以应对分布转移,实验证明该方法在真实世界的图数据上取得了显著效果。
Mar, 2024
本文针对图学习中分布外(OOD)泛化的主要挑战,提出了一种基于信息瓶颈理论的不变图学习框架(InfoIGL),旨在提取图的稳定特征并提高模型对未见分布的泛化能力。通过引入冗余过滤器和多层次对比学习,InfoIGL在不依赖不变性监督信号的情况下,显著提升了图分类任务的OOG泛化性能,实验结果显示该方法在合成和真实世界数据集上实现了最先进的性能。
Aug, 2024
本研究解决了图形机器学习中的分布外(OOD)泛化问题,该领域面临源数据与目标数据分布之间的差异。本文提出DIVE方法,通过训练多个模型关注所有标签预测子图,并使用正则化器惩罚模型间提取子图的重叠,显著改善了现有方法,从而增强了图形机器学习的泛化能力。