BriefGPT.xyz
Ask
alpha
关键词
global self-attention
搜索结果 - 3
身着荣誉:自注意力与虚拟节点
图形转换器是与全局自注意结合的消息传递 GNN 的图形处理模型,它们被证明是通用的函数逼近器,但依赖于位置编码来扩展初始节点特征。此研究对比了图形转换器和更高效的消息传递 GNN + 虚拟节点结构在图形大小上的一致表达性,并证明两种模型的表
→
PDF
2 months ago
KDD
全局自注意力作为图卷积替代方案
该论文提出了一种名为 Edge-augmented Graph Transformer (EGT) 的框架来处理任意形式的结构数据,其中使用全局自我关注作为聚合机制,并通过边缘通道来演化结构信息,从而在图结构数据的学习任务中超越了卷积 /
→
PDF
3 years ago
TransUNet:使用 Transformers 强大编码器进行医学图像分割
本文提出了一种新的医学图像分割框架 TransUNet,它将 Transformers 和 U-Net 结合起来,通过编码全局上下文和恢复本地细节信息来实现更精确的分割,针对不同的医学应用,TransUNet 优于其他竞争方法。
PDF
3 years ago
Prev
Next