面向个性化的图基础模型
提出了图基础模型(GFMs)的概念,并对其关键特征和技术进行首次全面阐述,然后将现有工作根据其依赖性分为三类,即基于图神经网络和大语言模型。本文不仅提供了对当前图基础模型领域的综合概述,还讨论了这一发展中领域的潜在研究方向。
Oct, 2023
图基础模型(GFM)是图领域中一个新兴的研究课题,旨在发展一种能够概括不同图和任务的图模型。我们提出了一个新颖的视角 ——“图词汇表”,通过在图中编码基本可转移单元的不变性来建立图词汇表,从而解决在构建 GFM 中遇到的跨结构模式图之间正向传递的关键挑战,这一视角可以潜在地推进未来 GFM 设计遵循神经规模定律。
Feb, 2024
基于自主学习的图神经网络模型的广义化和可扩展性进行了全面分析和研究,通过生成节点表示,在节点分类、链接预测和节点聚类等任务上实现了各种自主学习图神经网络模型的性能比较,并比较了全批次和小批次训练策略后各个模型的性能,同时评估了这些模型的训练效率。
Jun, 2024
在信息爆炸时代,推荐系统是为用户提供个性化推荐的重要工具。本文提出了一种线性时间图神经网络(LTGNN)来扩展基于 GNN 的推荐系统,以实现与经典 MF 方法相当的可扩展性,同时保持 GNN 强大的表达能力以获得更准确的预测。通过大量实验证明了所提算法的有效性和可扩展性。
Feb, 2024
综合评述了基于联邦学习和推荐系统的联邦推荐系统,讨论了数据异质性和数据稀缺性等固有限制,并介绍了基础模型的应用和研究方向,以及领域内的常见挑战、未来研究方向和评估指标。
May, 2024
本文提出了一种有效的框架,称为语言模型图神经网络 (LM-GNN),通过分阶段的 BERT 模型微调来结合异构图结构与文本,以便在多项监督学习任务中实现节点和边分类以及链接预测,并在不同的数据集上评估了这个框架且在一个亚马逊搜索 - 购买 - 产品的应用中提供了有竞争力的结果。
Jun, 2022
图形语言模型(GLM)集成了线性文本模型(LM)和图神经网络(GNN)的优点,同时减轻它们的弱点,在有监督和零样本情况下,在概念网络的关系分类任务上超过了基于 LM 和 GNN 的基线。
Jan, 2024
我们提出了一种能够有效捕捉高阶关系进行推理和学习的因子图神经网络模型,并通过适当选择信息聚合操作,实现了 Max-Product 和 Sum-Product 循环置信传播的单一架构。通过在真实和合成数据集上进行广泛的实验评估,证明了该模型的潜力。
Aug, 2023