零样本场景变化检测
提出一种零样本方法,该方法通过训练一个将语义属性预测与视觉特征融合以提出所观察到和未观察到对象类别的目标边界框的端到端模型,不使用语义信息,在测试时能明显提高针对未知对象的平均精度,应用于 PASCAL VOC 和 MS COCO 数据集时观察到显著改进。
Mar, 2018
本文提出了一种只需弱监督的新型语义场景变化检测方案,该方案引入了具有相关性层的新的孪生网络结构,并采集和标注了一个公开数据集,该数据集用于评估所提出的方法的视角差异的鲁棒性和对语义变化的有效性。
Nov, 2018
该论文旨在检测不同摄像机位置和不同时间实例获得的同一 3D 场景的两幅 “自然环境中” 的图像之间发生的变化,通过贡献一个基于合成数据训练的、类别不可知的变化检测模型,使用 “登记与差异” 方法,能够在没有精细调整的情况下对真实世界图像进行准确处理,并且无需额外的地面真实数据。同时,作者还提供了一组用于评估的实际图像对,其中包含人工标注的差异,并展示了该方法的有效性。
Aug, 2023
在这篇文章中,我们提出了一种新的变化检测模型,称为 Segment Any Change Models(AnyChange),它通过训练无关的自适应方法,在零样本预测和泛化的情况下支持不同类型和数据分布的变化检测。AnyChange 通过在 Segment Anything Model(SAM)的潜在空间中揭示和利用图像内部及图像间的语义相似性来实现零样本变化检测能力。我们还提出了一种点查询机制,使得 AnyChange 具备了零样本目标中心变化检测的能力。通过大量实验证明了 AnyChange 在零样本变化检测方面的有效性。AnyChange 在 SECOND 基准测试中取得了令人瞩目的成绩,F$_1$ 分数超过了之前的最佳结果 4.4%,并在有限的手动注释(每个图像 1 个像素)的监督变化检测上实现了可比较的准确性。
Feb, 2024
该研究论文提出了一种无监督的物体发现方法,通过 3D 变化检测和 2D 分割任务的组合,利用图优化技术将 2D 分割信息应用于 3D 空间,从而提高初始不完全的 3D 变化检测的准确性。实验证明该方法在 3D 扫描数据集上表现优于竞争基线算法,取得了最先进的效果。
Dec, 2023
该研究提出了一种模型,即使没有针对该对象的训练数据,也能在图像中识别对象,并从无监督的大型文本语料库中获取对未知类别的必要知识,在语言中的分布式信息可以被视为理解物体外观的语义基础。
Jan, 2013
本文提出了基于可视化 - 语言预训练的多模态对比学习(ChangeCLIP)用于变化检测领域的广义化。同时,还提出了动态语境优化的提示学习方法。此外,为了解决现有方法中的数据依赖性问题,引入了基于单时序和可控的 AI 生成训练策略(SAIN)。通过在真实世界的大量单时序图像上训练模型而无需图像对,ChangeCLIP 实现了出色的广义化能力。大量实验验证了 ChangeCLIP 在一系列真实变化检测数据集上的优越性和强大的广义化能力,胜过了现有的最先进变化检测方法。代码将会提供。
Apr, 2024
本研究中我们试图通过应对一次训练样例被限制为 1 的单独目标检测问题,丰富目标检测类别,并引入了匹配 - FCOS 网络和结构感知关系模块等模型以及新颖的训练策略进行探究,旨在最终消除对支持图像的微调需要,结果在多个数据集上始终超过同类现有技术,进而分类属于基于深度学习和 Faster R-CNN 的无锚点检测技术。
May, 2020