Jan, 2024

RTA-Former: 反向 Transformer 注意力用于息肉分割

TL;DR我们介绍了一种名为 RTA-Former 的新型网络,其将 transformer 模型作为编码器骨干结构,并在解码器中创新地采用反向注意力(RA)与 transformer 阶段进行增强的边缘分割。实验结果表明 RTA-Former 在五个息肉分割数据集上实现了最先进的(SOTA)性能。RTA-Former 的强大能力有望提高基于 Transformer 的息肉分割的准确性,潜在地带来更好的临床决策和患者结果。我们的代码将在 GitHub 上公开。