Nov, 2023

基于混合聚焦和全范围注意力的图变换器

TL;DR基于纯注意力机制的 FFGT 图形 Transformer 可以缓解学习全局相关性时丢失本地信息的问题,并通过将全融注意力与邻域注意力相结合来聚合全局和本地信息,从而提高了现有图形 Transformer 在各种开放数据集上的性能。