SimTeG:一个令人沮丧却简单的方法,提升文本图学习能力
针对文本丰富的图表,我们引入了一种新方法 —— 图感知参数高效微调(GPEFT),通过利用图神经网络(GNN)编码邻居节点的结构信息生成图提示,插入到文本序列的开头,从而实现了高效的图表示学习。通过在 8 个不同的文本丰富的图表上进行全面实验证明了该方法的有效性和高效性,在链接预测评估中平均提升了 2% 的 hit@1 和平均倒数排名(MRR),同时表明可以与多种大型语言模型无缝集成,包括 OPT、LLaMA 和 Falcon。
Apr, 2024
我们提出了 KGSimple,这是一种新颖的无监督文本简化方法,通过利用已建立的知识图谱技术构建简化的知识图谱路径,并生成保留原始输入意义的简洁文本。我们的模型通过迭代和抽样建立的知识图谱方法有能力从知识图谱起始进行文本简化,同时利用 KG-to-text 生成流畅且描述性强的句子输出。我们在目前可用的 KG-to-text 数据集上评估了 KGSimple 模型的各种设置,证明了与从给定复杂文本开始的无监督文本简化模型相比的有效性。我们的代码可以在 GitHub 上获得。
Aug, 2023
该研究提出了一种基于 T5 架构的多任务半监督环境下联合学习文本图谱提取和图谱生成的解决方案,此方法在 WebNLG 数据集中表现优于无监督最新成果,且相较于有监督模型更具一致性。
Feb, 2022
研究了半监督图分类,提出了一种名为 Twin Graph Neural Network(TGNN)的新型半监督框架,旨在利用图拓扑导出的特征以及充分利用未标记数据,通过消息传递模块和图内核模块来探索来自互补视图的图结构信息,同时通过交换实例相似性知识来协作学习标记和未标记数据的结构信息,最终在各个公共数据集上取得了良好的性能。
Apr, 2023
本文提出了一种有效的框架,称为语言模型图神经网络 (LM-GNN),通过分阶段的 BERT 模型微调来结合异构图结构与文本,以便在多项监督学习任务中实现节点和边分类以及链接预测,并在不同的数据集上评估了这个框架且在一个亚马逊搜索 - 购买 - 产品的应用中提供了有竞争力的结果。
Jun, 2022
Text-And-Graph Multi-View Alignment (TAGA) is a self-supervised learning framework that integrates Text-Attributed Graphs (TAGs), enabling efficient training and strong performance in zero-shot and few-shot scenarios across multiple datasets.
May, 2024
采用线性图神经网络(TrainlessGNN)模型构建代表每个类别节点属性子空间的权重矩阵,为 TAG 上的半监督节点分类提供了一种高效的方法,消除了迭代优化过程。广泛的实验证实了我们的无训练模型可以匹配甚至超越传统训练模型,展示了在特定配置中避免梯度下降的可能性。
Apr, 2024
我们的研究旨在提高图模型在具有挑战性的零样本学习场景中的泛化能力,通过发展面向图结构知识的大型语言模型(LLMs),并利用图指示调整范式来与图结构知识建立联系,探索自我监督的图结构信号和任务特定的图指示,从而引导 LLMs 在理解复杂的图结构和改善在不同下游任务之间的适应性。我们的框架在监督和零样本图学习任务上进行评估,展示了优越的泛化能力,并超过了最先进的基准模型。
Oct, 2023
通过一种新的框架 GraphText,将图形转化为自然语言,无需图数据训练,能够实现与监督训练图神经网络相媲美甚至超越其性能的图推理,同时为人类和大型语言模型提供了与模型无缝交流的方式,突显了大型语言模型在图机器学习领域尚未探索的巨大潜力。
Oct, 2023