Jun, 2024

基于大型语言模型的文本丰富图的分层压缩

TL;DR在处理文本丰富的图结构数据中,本研究介绍了一种被称为 “Hierarchical Compression” 的新方法,通过将文本信息组织成可管理的层次结构并逐步压缩节点文本,使得大型语言模型能够更好地与文本丰富的图结构进行整合,不仅能保留文本的上下文信息,还能解决计算复杂性问题,并在电子商务和引用图上实现了比传统方法(如图神经网络和大型语言模型)更好的节点分类性能。