零样例物体计数
本文提出了一种针对少样本目标计数的新型学习模块,其中包括相似性比较模块和特征增强模块,通过得分图,利用支持图像和查询图像来增强查询特征,大大提高了目标计数的精度和效率,成果优于现有最先进技术
Jan, 2022
本文提出了一种用于类别无关计数的视觉计数器,利用区域建议网络及密度估计对重复出现的对象进行计数,实现对新颖目标类别的自动化计数。实验表明,该方法在FSC-147 数据集上表现优异。
May, 2022
本研究提出了Counting Transformer(CounTR)用于实现对任意语义类别的目标进行计数,并采用两阶段的训练策略进行无监督预训练和有监督微调,通过综合评估获得了当前最先进的零样本和少样本计数结果,并使用大规模计数基准进行了彻底的消融研究。
Aug, 2022
本文提出了零样本目标计数(ZSC)这样一种新的设置,该计数系统不需要在循环中进行人工注释,并且可以自动运行。该方法首先构造一个类原型来选择可能包含感兴趣对象即类相关块的补丁,并引入一种可以定量衡量任意补丁作为计数示例的适宜程度的模型,通过将该模型应用于所有候选补丁,可以选择最合适的补丁作为计数示例,实验结果验证了方法的有效性。
Mar, 2023
零样本目标计数 (ZSC) 是一种新的设置,只需类名作为测试时间的输入。我们提出了找到几个目标裁剪样本并将其用作计数示例的方法,该方法消除了对人工注释者的需求并实现了自动化操作。通过使用大型语言-视觉模型构建类原型,我们选择包含目标对象的补丁,同时使用排名模型评估每个补丁的计数误差并选择最合适的示例用于计数。在最近的类别无关计数数据集 FSC-147 上的实验结果验证了我们方法的有效性。
Sep, 2023
基于检测的PseCo框架将SAM和CLIP结合起来,实现了对少样本和零样本的准确目标计数,通过点定位、分割和计数等步骤解决了效率和小物体区分等难题。
Nov, 2023
零样例物体计数的一阶段基线方法VLCounter是通过探索CLIP的语义补丁嵌入的内在关联,结合三种模块来实现;SPT用于获得目标高亮表示,LAT用于将语义补丁相似度转化为适合计数任务的形式,SaSC用于保持对未见类的泛化能力,并通过在FSC147,CARPK和PUCPR+上的广泛实验证明了VLCounter的好处。
Dec, 2023
通过深入研究语言引导示例学习,论文提出了一种新颖的ExpressCount,用于改进零样本物体计数。通过语言导向的示例感知器和下游视觉零样本计数管道构成的ExpressCount,在寻找细粒度特征方面表现出色,充分利用了来自大型语言模型的丰富语义先验知识,并显著提升了任意类别的零样本学习能力,从而为发展和验证基于语言的计数模型开辟了新的途径。大量实验证明了ExpressCount的最先进性能,甚至展示了与部分特定类别计数模型相媲美的准确性。
Feb, 2024
不需要训练的前提下,本研究提出了一种直接的解决方案,通过利用预先存在的基础模型进行实例级分割,通过四项关键技术的结合,实现了性能的显著提升,与基于训练的方法相媲美。
Mar, 2024
本文解决了低样本目标计数技术中的准确度不足问题,提出了一种名为GeCo的新型计数器。这一新方法通过创新的密集对象查询形式和直接优化检测任务的新计数损失实现了更高的检测准确性和计数精度,使得GeCo在各类低样本计数设置中优于领先的几-shot检测计数器约25%。
Sep, 2024