Aug, 2023
超越自注意力:用于医学图像分割的可变形大卷积核注意力
Beyond Self-Attention: Deformable Large Kernel Attention for Medical
Image Segmentation
Reza Azad, Leon Niggemeier, Michael Huttemann, Amirhossein Kazerouni, Ehsan Khodapanah Aghdam...
TL;DR介绍了一种新的分层视觉Transformer网络模型(D-LKA Net),采用变形大核注意力机制以完全理解体积上下文信息,并在医学图像分割任务上展现出卓越的性能。