图像解析的图推理变压器
该论文介绍了一种名为 Key-Graph Transformer(KGT)的方法,它有效地在高分辨率输入中集成全局信息,提供了计算效率以及在 6 个图像恢复任务中的先进性能。
Feb, 2024
该研究提出了一种名为 GloRe 的全局推理单元,实现了卷积神经网络对于远距离区域之间的全局关系的建模,能够有效提升图像识别、语义分割和视频行为识别等计算机视觉任务的性能。
Nov, 2018
提出了一种基于 Transformer 的 GRAP-Aware Transformer(GRAT)神经网络模型,利用自注意机制自适应地处理整个图的编码和解码,经过多种实验验证,其在 QM9 数据集的分子属性预测等任务上表现出了领先水平。
Jun, 2020
我们提出了一种名为 GRT 的图形关系 Transformer 方法,它使用边缘信息来计算转换器中图形关注操作,它在视觉问答任务中取得了很好的效果。
Nov, 2021
该论文提出了一种新颖的 transformer 模型,用于场景图生成和关系预测,利用编码器 - 解码器架构和节点和边的丰富特征嵌入,通过自我注意力和交叉注意力模拟节点之间和边与节点之间的交互,并引入适用于处理解码器中的边的新的位置嵌入。
Apr, 2020
本文提出了一种基于图形关系推理网络方法 (GR2N) 的社交关系识别方法,该方法相比现有方法能够更快,更准确地构建社交关系图,并显式地抓住不同类型社交关系之间的强逻辑约束,从而提高社交关系图的性能。
Jul, 2020
本研究使用可扩展的图转换器(GT)框架来进行单个大规模图的表示学习,并提出了快速的采样技术和局部注意机制,以解决全局注意机制在大规模图上的计算复杂性问题。在三个大规模节点分类基准测试中,我们验证了 LargeGT 框架,并取得了 3 倍的加速和 16.8%的性能提升。
Dec, 2023
PatReFormer 是一种基于 Transformer 的补全知识图谱的模型,通过将嵌入分段并应用交叉注意力模块,在复杂关系类型上具有更好的性能表现,同时在四个流行的 KGC 基准测试中也取得了显着的性能提升。
Jul, 2023
本文提出一种名为 GiT 的图与变压器相互作用的模型,用于处理车辆重新识别问题,提取局部可辨别的特征和全局的鲁棒特征,该方法在三个大规模车辆重新识别数据集上的实验证明其优于现有方法。
Jul, 2021