May, 2023

现成的视觉Transformer模型:针对少样本类别无关计数的出乎意料的基线

TL;DR本文提出一种使用预训练的Vision Transformer(ViT)的解决方案,实现了Class-Agnostic Counting(CAC),并将其称为CACViT。实验结果表明,CACViT在FSC147和CARPK数据集上均具有很强的鲁棒性和高效性,相较于其他现有的类别无关计数方法减少了23.60%的误差。