关键图变换器用于图像修复
本文提出了一种基于图推理的转换器模型,通过引入关系推理模式来解决传统基于注意力机制的图像补丁交互中存在的问题,并在计算效率和相对于现有转换器基线的性能表现上实现了显著提高。
Sep, 2022
通过全局感受野和几乎线性的复杂度,AnchorGT 提出了一种新颖的注意力结构,用于改进各种 GT 模型的可扩展性,实现更高的效果和更高的内存效率。
May, 2024
本研究使用可扩展的图转换器(GT)框架来进行单个大规模图的表示学习,并提出了快速的采样技术和局部注意机制,以解决全局注意机制在大规模图上的计算复杂性问题。在三个大规模节点分类基准测试中,我们验证了 LargeGT 框架,并取得了 3 倍的加速和 16.8%的性能提升。
Dec, 2023
通过使用由专门构造的稀疏但全面的关键语义词典优化的自注意力机制,该文提出了一种增强图像恢复性能的新方法:SemanIR。通过在同一阶段内共享关键语义词典,该方法能够实现每个窗口内的线性计算复杂度,并通过实验证明了其在六个图像恢复任务中的卓越性能。
May, 2024
本文提出一种名为 GiT 的图与变压器相互作用的模型,用于处理车辆重新识别问题,提取局部可辨别的特征和全局的鲁棒特征,该方法在三个大规模车辆重新识别数据集上的实验证明其优于现有方法。
Jul, 2021
该论文提出了一种动态分组注意力 (DG-Attention) 和一个通用的 DGT 视觉转换器的背景,可以在多个常见的视觉任务中超越现有技术,并动态地将所有查询分成多个组,为每个组选择最相关的密钥 / 值。
Mar, 2022
该论文提出了一种名为 Edge-augmented Graph Transformer (EGT) 的框架来处理任意形式的结构数据,其中使用全局自我关注作为聚合机制,并通过边缘通道来演化结构信息,从而在图结构数据的学习任务中超越了卷积 / 消息传递图神经网络,并在 OGB-LSC PCQM4Mv2 数据集上实现了量子化学回归任务的最新性能。
Aug, 2021
提出了一种基于签名注意力的图变换器(SignGT),用于自适应地从图中捕获各种频率信息,并通过引入邻域偏置以保留局部拓扑信息学习信息节点表示。
Oct, 2023
近期的研究表明,基于 Transformer 架构的方法在图像恢复方面具有强大的能力。然而,我们的分析表明,现有的基于 Transformer 的方法无法同时建立精确的全局依赖关系和局部依赖关系,而这对于恢复退化图像的细节和缺失内容非常关键。为此,我们提出了一种具有分层注意力的高效图像处理 Transformer 架构,称为 IPTV2,采用了一种聚焦上下文自注意力(FCSA)和全局网格自注意力(GGSA),以在局部和全局感受野中获取充分的令牌交互。具体而言,FCSA 将移位窗口机制应用于通道自注意力中,有助于捕捉局部上下文和通道间的相互作用。GGSA 在跨窗格中构建长距离的依赖关系,在空间维度中聚合全局信息。此外,我们引入结构重新参数化技术来改进前馈网络的模型能力。大量实验证明,我们提出的 IPT-V2 在各种图像处理任务上取得了最先进的结果,包括去噪、去模糊、去雨等,并且在性能和计算复杂度的权衡方面获得了很大的改进。此外,我们将我们的方法扩展到图像生成作为潜在扩散的支撑,显著优于 DiTs。
Mar, 2024
基于纯注意力机制的 FFGT 图形 Transformer 可以缓解学习全局相关性时丢失本地信息的问题,并通过将全融注意力与邻域注意力相结合来聚合全局和本地信息,从而提高了现有图形 Transformer 在各种开放数据集上的性能。
Nov, 2023