本论文提出了一种实用的无监督图结构学习(GSL)范式,使用自我监督对比学习辅助产生“锚图”目标,采用新型自举机制升级锚图并设计多种图学习器和后处理方案,取得了显著有效性和优化图的高质量。
Jan, 2022
本文提出了一种图结构学习方法——图结构精炼方法(GSR),采用预训练-微调管道,通过多视角对比学习和概率估计相结合的方式,提高了图神经网络(GNN)的效能和扩展性。
Nov, 2022
这篇论文介绍了OpenGSL,这是第一个全面的Graph Structure Learning基准,旨在通过评估出现在各种流行数据集,以及使用统一数据处理和分割策略的最新GSL方法之间的公平比较,缩小研究进展存在的差距。
Jun, 2023
本文介绍一种新的问题设置,探索学习通用图结构学习模型以在开放环境下推广,从而进一步优化可适应特定图数据集的图结构,通过多个特定的 GNN 模型应对多样化数据集。
该研究探讨了大型语言模型(LLMs)在结构化数据(尤其是图形)上的应用,旨在理解何时以及为何将图形数据中固有的结构信息纳入到LLMs的节点分类任务中可以提高预测性能。
Sep, 2023
我们的研究旨在提高图模型在具有挑战性的零样本学习场景中的泛化能力,通过发展面向图结构知识的大型语言模型(LLMs),并利用图指示调整范式来与图结构知识建立联系,探索自我监督的图结构信号和任务特定的图指示,从而引导LLMs在理解复杂的图结构和改善在不同下游任务之间的适应性。我们的框架在监督和零样本图学习任务上进行评估,展示了优越的泛化能力,并超过了最先进的基准模型。
Oct, 2023
通过提出一个名为GraphInstruct的基准测试以及GraphLM和GraphLM+模型的构建和实验,本文旨在评估和增强大型语言模型在图形理解和推理方面的能力。
Mar, 2024
通过综述最新的最先进的用于图学习的大型语言模型,我们引入了一种新的分类方法,详细阐述了四种独特的设计,并探讨了每种框架的优势和局限性,同时强调了未来研究的潜在方向。
May, 2024
本研究解决了大型语言模型在处理图形任务时无法捕捉复杂结构信息的挑战。提出了一种新颖的节点标记器NT-LLM,通过选择关键节点并基于相对距离进行编码,能够有效捕捉图形拓扑信息,显著提高模型的推理能力和性能。这一方法具有更好的实用性和应用潜力。
Oct, 2024
本研究解决了图表示学习中常见的噪声问题,提出了LangGSL框架,整合了预训练语言模型和图结构学习模型的优势,提升了节点特征和图结构学习的效果。研究表明,通过互学习和相互补充,这一方法显著增强了节点嵌入和全局上下文,从而提高了模型的整体性能。