LLaGA:大型语言和图形助手
通过综述最新的最先进的用于图学习的大型语言模型,我们引入了一种新的分类方法,详细阐述了四种独特的设计,并探讨了每种框架的优势和局限性,同时强调了未来研究的潜在方向。
May, 2024
通过对大型语言模型在图形上的应用的详细技术和潜在场景进行系统回顾,我们总结了大型语言模型在纯图、文本丰富图和文本配对图中的优缺点,并讨论了其在真实世界应用中的方法以及开源代码和基准数据集。最后,我们提出了这一快速发展领域的潜在未来研究方向。
Dec, 2023
该研究介绍了一种基于多模态大型语言模型的生成助手(LLMGA),利用大型语言模型(LLM)中内在的知识和理解能力,帮助用户进行图像生成和编辑,通过精确控制生成提示实现对稳定扩散(SD)的控制,以提供更精细、准确的内容和更直观的网络解释性,同时还提出了一个两阶段的训练方案来优化 SD 的生成结果,并引入基于参考的恢复网络来减少图像编辑过程中生成区域与保留区域之间的纹理、亮度和对比度差异。广泛的实验结果表明,LLMGA 具有很好的生成能力,并能以交互方式在更广泛的应用中发挥作用。
Nov, 2023
在本调查中,我们首先提出了一种新的分类法,该分类法将现有方法根据 LLMs 在图相关任务中所扮演的角色(增强器、预测器和对齐组件)分为三类,并对这三类中的代表性方法进行了系统调查。我们还讨论了现有研究的局限性,并强调了未来研究的有希望的方向。
Nov, 2023
在 LLMs 时代,通过综述文章,我们首先回顾了图机器学习的最新发展,然后探讨了 LLMs 如何提高图特征的质量,减少对标记数据的依赖,并解决图的异质性和分布外泛化等挑战。此外,我们研究了图如何增强 LLMs,并突出它们在 LLMs 的预训练和推理中的能力。最后,我们探讨了这个有前景的领域的各种应用和潜在的未来方向。
Apr, 2024
本文研究了在十个不同的任务中评估大型语言模型在理解图形数据方面的能力,发现目前模型仍存在理解图结构和执行相关推理任务的局限性,需要进一步的研究以加强其图形处理能力。研究结果为搭建语言模型与图形数据理解之间的桥梁提供了宝贵的见解,为更有效的图挖掘和知识提取铺平了道路。
May, 2023
我们提出了 InstructGLM(指导调整的图语言模型),基于自然语言说明系统地设计高度可扩展的提示,使用自然语言描述图的几何结构和节点特征,通过指导调优语言模型以一种生成方式在图上执行学习和推理,超过了所有竞争的 GNN 基准数据集,证明了我们方法的有效性,并为将生成语言模型替代 GNN 作为图机器学习的基础模型提供了启示。
Aug, 2023
在该研究中,我们通过对大型语言模型在图预测任务的性能进行实验,评估它们是否能有效处理图数据并利用拓扑结构提高性能;通过与专门的图神经网络进行比较,我们对大型语言模型在图分析中的优势和局限性提供了见解,并为将它们应用于图分析提供了进一步的探索方向。
Oct, 2023
本文介绍了 LLM4GraphGen 模型,通过系统性任务设计和广泛的实验探索了大型语言模型在图生成方面的能力,并表明 GPT-4 在图生成任务中展现了初步能力,包括基于规则和分布的生成,同时发现流行的提示方法并不一致地提升性能。此外,LLM 在生成具有特定属性的分子方面展现了潜力,这些发现为基于 LLMs 的图生成模型的设计提供了基础,并提供了有价值的见解和进一步的研究方向。
Mar, 2024