图神经网络的测试时间训练
我们提出了一种新颖的测试时训练(LLMTTT)流程,借助大型语言模型作为注释者,在精心选择的节点集上进行图上的测试时适应,从而相对于现有的超出分布泛化方法,获得显著的性能提升。
Apr, 2024
本文提出了一种名为 GAPGC 的新型测试时间适应策略,通过对比学习和自监督学习等方法,有效增强图神经网络的适应性和性能,并且提供了信息论的理论证明。实验结果表明,该方法在分子骨架 OOD 数据集上取得了最先进的 GNN 性能。
Aug, 2022
本文提出了一种名为 GTrans 的图形变换框架,通过在测试时自适应和改进图形数据,从数据角度来解决图神经网络(GNN)所面临的数据质量问题,经实验表明,GTrans 在改善性能方面表现最佳。
Oct, 2022
本文介绍了一种名为 GPT-GNN 的框架,用于解决 Graph Neural Networks 训练问题,通过预训练一个能够自监督地学习到结构和语义属性的 GNN 模型,然后将其传输到 Downstream Tasks 中,从而显著提高了性能。
Jun, 2020
本研究提出了一种名为 FR-GNN 的通用框架,用于进行特征重构,并在测试时间内将这些重构特征整合到 GNN 的消息传递机制中,从而有效降低分布转移并提高测试性能。
Aug, 2023
本文中,我们提出了测试时间训练的一般方法,通过将单个未标记的测试样本转化为自监督学习问题并在此基础上更新模型参数,从而改善预测模型在训练和测试数据来自不同分布时的性能,特别是在评估对分布的稳健性方面,我们的简单方法在各种图像分类基准测试中导致了改进。
Sep, 2019
TimeGNN 是一种学习动态时间图表示的方法,能够捕捉多个系列的相关性和交互模式的演变,并在预测性能方面实现比其他先进的基于图的方法快 4 到 80 倍的推理时间。
Jul, 2023
本文是对临时图形神经网络的综合评述,主要介绍了学习设置和任务的严格形式化,以及一种新颖的分类方法来分类已有的方法,讨论了该领域的最相关的开放挑战。
Feb, 2023
本文通过对 81 个动态 GNN 模型、12 个动态 GNN 训练框架和常用基准进行了全面的比较分析和实验评估,在对六个标准图数据集上测试了九个代表性的动态 GNN 模型和三个框架。评估指标包括收敛精度、训练效率和 GPU 内存使用情况,从而实现了对各种模型和框架性能的全面比较。通过分析和评估结果,我们确定了关键挑战,并提出了未来研究的原则,以增强动态 GNN 领域模型和框架的设计。
May, 2024