基于提示驱动的动态物体中心学习用于单域泛化
本文介绍了物体中心表示学习的概念,并在五个常见的多目标数据集上对最先进的无监督模型进行了训练和评估,研究了分割度量和下游对象属性预测等问题,并探讨了单个对象超出分布,全局属性的改变以及更少结构化的分布转变对其性能的影响。实验结果表明,物体中心表示对下游任务很有用,而且对于大多数影响对象的分布转变通常很坚韧。但是,当输入的分布变化不规则时,在分割和下游任务性能方面的韧性可能会因模型和分布转变而异。
Jul, 2021
本篇文章主要讨论对象检测中的领域泛化问题(DGOD),提出了一种综合评估标准对检测器进行评估,并提出了一种名为 Region Aware Proposal reweighTing (RAPT) 的新方法,以消除RoI特征内的依赖性。实验表明,我们的方法优于其他最先进的对手。
Mar, 2022
本文提出了一种可扩展的对象检测流程,使用零手动标注扩展到新颖/不可见类别,该过程包含开放词汇表的对象检测器、区域提示学习、自我训练等四个部分,并通过对挑战性数据集的广泛实验表明了其优于现有方法。
Mar, 2022
本论文提出了基于prompt learning的全新方法DoPrompt,利用domain prompts嵌入源域的知识进行目标域的预测,针对视觉转换器(ViT)在领域泛化方面存在的问题,经过大量实验证明本文方法在四个基准数据集上获得了1.4%的精度提高,是基于ViT骨干结构的状态-of-the-art算法的3.5倍。
Aug, 2022
单域泛化(S-DG)方法用于将模型推广到未知环境,但大多数方法局限于分类领域,在目标检测中会导致语义特征损坏,我们提出一种面向目标检测的目标感知领域泛化(OA-DG)方法,包括数据增强和训练策略(OA-Mix和OA-Loss),通过生成多域数据和学习域不变表示,我们的方法在标准基准上优于现有研究。
Dec, 2023
通过使用学习到的视觉提示,我们的工作研究了在少样本情况下,通过对Transformer解码器进行提示,来提高普适少样本分割(GFSS)任务的效果。我们提出了一种利用少量样本学习视觉提示的方法,通过这些学习到的视觉提示,我们可以对多尺度Transformer解码器进行提示,以便实现准确的密集预测。此外,我们引入了一种单向因果关注机制,用于连接通过少样本学习到的新提示和通过大量数据学习到的基础提示,从而提升新提示的质量而不损害基础类别的性能。总体而言,这种提示形式帮助我们在两个不同的基准数据集上实现了GFSS的最先进性能:COCO-$20^i$和Pascal-$5^i$,而无需进行测试时间的优化或传导。此外,我们还使用未标记的测试数据进行测试时间的优化,以改进这些视觉提示,我们称之为传导提示调优(transductive prompt tuning)。
Apr, 2024
本研究解决了对象中心表示学习在未见数据和任务中的应用问题。通过引入一个涵盖多种合成与真实世界数据集的基准,探讨了零样本泛化的影响因素,并提出了一种新的微调策略,使得预训练视觉编码器适应对象发现任务。研究发现,该方法在无监督对象发现任务中实现了最新的性能,并展现出强大的零样本迁移能力。
Aug, 2024
本研究针对传统少样本分割方法中存在的类别无关特征编码问题,提出了一种新颖的“Prompt and Transfer”(PAT)方法。该方法通过引入跨模态语言信息、语义提示转移和部件掩码生成器,动态调整编码器以精确聚焦于目标类别,从而在少样本分割、跨域分割等多个任务上实现了优越的性能,并在11个基准测试中设立了新的状态-of-艺术。
Sep, 2024