Nov, 2023

GATGPT:基于图注意力网络的预训练大型语言模型用于时空填补

TL;DR在本研究中,我们提出了一种创新方法 GATGPT,它将已训练好的大型语言模型(LLM)与图注意机制相结合,用于时空插补。我们保持大部分 LLM 参数不变,以利用现有知识学习时间模式,并针对不同应用程序调整上层的微调。图注意组件增强了 LLM 理解空间关系的能力。通过对三个真实世界数据集的测试,我们的方法表现与已建立的深度学习基准相当。