May, 2023
现成的视觉Transformer模型:针对少样本类别无关计数的出乎意料的基线
Vision Transformer Off-the-Shelf: A Surprising Baseline for Few-Shot
Class-Agnostic Counting
TL;DR本文提出一种使用预训练的Vision Transformer(ViT)的解决方案,实现了Class-Agnostic Counting(CAC),并将其称为CACViT。实验结果表明,CACViT在FSC147和CARPK数据集上均具有很强的鲁棒性和高效性,相较于其他现有的类别无关计数方法减少了23.60%的误差。