自注意力在医学图像分析中的效果研究
本文针对使用卷积操作在视觉任务中只关注局部局部信息、缺乏全局信息的不足,提出运用自注意力机制对视觉任务进行处理的方法;通过在图像分类和目标检测任务中实现卷积和自注意力的融合,可有效提高模型精度。
Apr, 2019
采用引导自我关注机制的卷积神经网络模型对医学图像进行语义分割,能够更好地捕捉图像中的上下文依赖关系,去除冗余的信息提取并集成本地特征和全局依赖,强调相关特征关联,从而取得更好的分割效果。
Jun, 2019
本论文通过针对医疗应用的实验案例研究,对注意力机制在深度学习及医疗应用中的可行性进行了批判性分析,探讨了其在现有深度学习框架中的整合过程、预测能力和显著性图生成等方面,最终提出了未来医疗应用中注意力机制的潜在研究方向。
Apr, 2022
医学图像分析可以通过一种扎根于自注意机制的创新架构得到促进。传统的卷积神经网络(CNN)在捕捉像素级复杂空间和时间关系时需要帮助,而其卷积窗口的固定大小限制了输入波动。为了克服这些限制,我们提出了基于注意力模型而非卷积的新范式。这些模型作为传统 CNN 的替代品,表现出强大的建模能力和高效获取全局长范围上下文信息的能力。通过将非重叠(vanilla patching)和新颖的重叠移位补丁技术(S.P.T.s)相结合,我们的工作提供了一种解决注意力视觉模型所面临的关键挑战的方法,包括归纳偏差、权重共享、感受野限制和高分辨率数据处理。此外,我们还研究了适应不同图像尺寸到更高分辨率的新颖 Lancoz5 插值技术。实验证据验证了我们模型的一般化效果,并与现有方法进行了有利比较。特别是在充足数据的情况下,基于注意力的方法特别有效,尤其是在集成先进的数据增强方法来增强它们的鲁棒性时。
Apr, 2024
对于医学成像中的混合 CNN-Transf/Attention 模型进行了系统回顾,研究了主要的结构设计、突破、机遇和挑战,同时引入了基于该模型的数据驱动域泛化和适应方法的综合分析框架。
Jul, 2023
本文研究探索了自注意力在图像识别模型中的应用,比较了两种形式的自注意力(分别为成对自注意力和区域自注意力)与卷积神经网络在图像识别上的表现,并发现自注意力网络对于学习稳健的表征具有明显的优势。
Apr, 2020
本研究分析了四种注意力机制和三种 CNN 模型,针对心率预测中的分类和回归两个问题评估了多种组合,并验证了卷积操作和注意力机制的互补性以及提供更快的收敛时间,尽管单独的自注意模型需要更少的参数。
Jul, 2022
通过使用自注意力替换空间卷积操作,得出了一个完全的自注意力模型,该模型相比于基线 ImageNet 分类任务具有 12%更少的 FLOPS 和 29%更少的参数,而在 COCO 目标检测方面,与基线 RetinaNet 匹配的 mAP,但具有 39%更少的 FLOPS 和 34%更少的参数。
Jun, 2019
卷积神经网络是建模视觉皮质神经元转移函数的最先进方法。这篇论文发现,与参数匹配的标准卷积神经网络相比,非局部网络或自注意机制在整体调谐曲线相关性和调谐峰值这两个关键度量上可以提高神经响应预测,并且可通过分解网络确定每个上下文机制的相对贡献,揭示了局部感受野中的信息对于模拟整体调谐曲线最为重要,而周围信息对于表征调谐峰值至关重要;并且在学习过程中自注意力可以取代后续的空间整合卷积,与全连接输出层相结合,两种上下文机制相辅相成;最后,学习以接受感受野为中心的自注意模型,在逐步学习全连接输出之前,能够提供更具生物学现实性的中心 - 周围贡献的模型。
Jun, 2024