Feb, 2024

ZeroG: 探索图中的跨数据集零样本迁移性

TL;DR通过引入 ZeroG,一种新的框架,我们扩展了这种零样本迁移学习范式到图领域,以实现数据集间的泛化,减少特征不对齐、标签空间不匹配和负迁移等固有挑战,并通过使用语言模型对节点属性和类别语义进行编码,以确保数据集间的一致特征维度,并通过基于提示的子图采样模块丰富提取的子图的语义信息和结构信息,进一步采用轻量级微调策略降低过拟合风险,并保持语言模型的零样本学习能力。结果显示我们的模型在实现显著的跨数据集零样本迁移能力方面非常有效,为图基础模型的发展开辟了新的路径。特别地,ZeroG 作为一种零样本方法,甚至能在 Pubmed 上实现可与半监督学习相媲美的结果。