Oct, 2023

基于补丁对比学习的弱监督语义分割的 Top-K 汇聚

TL;DR提出了一种名为 top-K 汇聚的 Vision Transformer 弱监督语义分割方法(TKP-PCL),通过使用 top-K 汇聚层来增强之前最大汇聚选择的限制,并提出了一种补丁对比误差(PCE)来增强补丁嵌入,从而进一步提高最终结果。实验结果表明,该方法在 PASCAL VOC 2012 数据集上非常高效,并且优于其他最新的弱监督语义分割方法。