图像融合变换器
通过整合转换器模型的多尺度融合策略,本研究提出了一种新的图像融合方法,以克服使用评价指标作为损失函数所带来的局限性,并改善了整体方法的效果。
Feb, 2024
本文提出了一种使用 CNN 和 transformer 结构融合的方法来改善图像分类性能,通过将图像转换成特征图并分为不同的区域,然后采用三种融合方法将这些区域与 transformer 的视野融合,实现在 ImageNet 1k 上最佳分类性能。
Aug, 2022
该论文介绍了一种使用 Transformer 模块在多个分辨率上有效合并局部和全局上下文关系的相机和 LiDAR 数据融合方法,并通过与两个具有长途路线和高密度交通的对抗基准的广泛实验证实了该方法的性能优势。与之前的方法相比,该方法在最具挑战性的基准测试中取得了显著更高的驾驶和违规得分,对于 Longest6 和 Town05 Long 基准测试,分别取得了 8% 和 19% 的提升。
Aug, 2023
本文介绍了用于医学图像分割的 TransFuse 并行网络结构,将 Transformers 和 CNNs 并置,以有效地捕捉全局依赖关系和低级别空间细节,且使用了一种新的特征融合方法 —BiFusion 模块来融合两个分支的多级特征。实验结果表明,TransFuse 在医学图像分割任务中的性能优于目前最先进的技术,同时在参数数量和推断速度上也有显著改进。
Feb, 2021
本文提出了一种新的方法 HiFormer,它通过使用 Swin Transformer 模块和基于 CNN 的编码器设计了两种多尺度特征表示来有效地跨越 CNN 和 Transformer 进行医学图像分割。在编码器解码器结构的跳跃连接中,我们提出了 Double-Level Fusion(DLF)模块,以确保从两个上述表示中获得的全局和局部特征的细粒度融合。在各种医学图像分割数据集上的广泛实验表明,HiFormer 在计算复杂度、定量和定性结果方面优于其他基于 CNN、Transformer 和混合方法。
Jul, 2022
结合卷积神经网络与 transformers 模型的特点,实现了生成高分辨率图像的任务,并取得了 ImageNet 中类别有条件下的自回归模型的最优结果
Dec, 2020
本文提出了一种新的医学图像分割混合架构,手持卷积神经网络和 Transformer,用于动态变形卷积和自适应互补注意模块改进卷积神经网络和 Transformer 的性能,以实现更好的医学图像分割结果。
Jun, 2023
提出了一种名为 HTCAN 的混合 Transformer 和 CNN 注意网络的方法,该方法使用基于 Transformer 的网络进行单幅图像增强和基于 CNN 的网络进行立体信息融合,最终在 NTIRE 2023 立体图像超分辨率挑战中获胜。
May, 2023
利用双交叉注意力变换器提出了一种新的特征融合框架,以同时建模全局特征交互并捕捉多模态之间的互补信息,从而提高物体特征的区分能力,并通过迭代交互机制在减少模型复杂性和计算成本的同时保证了较快的推理速度。
Aug, 2023
本文提出了一种基于 Transformer 和 CNN 的新型混合神经网络(CMTs),通过捕捉图像中的长程依赖和建模本地特征,实现了比现有的 DeiT 和 EfficientNet 更高的精度和更小的计算成本。
Jul, 2021