Nov, 2023

高阶动态图表示学习与高效 Transformer 模型

TL;DR通过在 Transformer 的注意力矩阵中编码高阶图结构,HOT 模型在图表示学习中的动态问题中提高了链接预测的准确性,同时通过设置层次结构在注意力矩阵上显著减少内存占用。与其他动态图表示学习方案相比,HOT 在 MOOC 数据集上实现了相对较高的准确性,分别比 DyGFormer、TGN 和 GraphMixer 分别高出 9%、7% 和 15%。