Jan, 2024

BA-SAM:可扩展的偏置注意力掩码用于分割任何模型

TL;DR本文提出了 Scalable Bias-Mode Attention Mask(BA-SAM)解决图像分辨率变化对 Segment Anything Model (SAM) 的影响,并实现了零样本泛化能力。通过引入新的缩放因子和偏置模式注意力掩码,BA-SAM 在不改变结构的情况下,增强了模型对不同图像分辨率的适应性,同时在零样本学习和微调中取得了显著的性能提升。