BriefGPT.xyz
Feb, 2022
释放 Transformer 在图形任务中的能力
Unleashing the Power of Transformer for Graphs
HTML
PDF
Lingbing Guo, Qiang Zhang, Huajun Chen
TL;DR
本研究提出了一种名为DET的新型Transformer架构,采用结构编码器聚合连接邻居的信息和语义编码器聚焦于远距离节点,通过自监督训练寻找所需的远距离邻居,比使用多跳邻居的方法更为优越。实验结果表明,DET在处理分子、网络和各种规模的知识图谱方面比对应的最新方法具有更优越的性能表现。
Abstract
Despite recent successes in natural language processing and computer vision,
transformer
suffers from the
scalability
problem when dealing with
g
→