无监督多视角行人检测
本论文介绍了一个利用自动提取的场景上下文信息的多摄像头全局组合行人检测方法,通过语义分割技术获得上下文信息用于自动生成场景的共同区域,从而获取一系列的联合检测框。相比其他同类方法,本文提出的方法具有场景无关性和实现的快速性,且在五个公共数据集上验证具有更好的性能。
Dec, 2018
本文利用卷积网络模型,采用多阶特征提取,全局形状信息和本地独特的纹理信息相结合以及基于卷积稀疏编码的无监督方法来预训练过滤器,取得了所有主要行人数据集上的最先进和有竞争力的结果,从而解决了行人检测的实际问题。
Dec, 2012
提出了一种多相机 3D 行人检测方法,该方法不需要使用目标场景的数据进行训练,通过基于人体姿势和来自现成单目检测器的人物包围框的新启发式方法在地面平面上估计行人位置,然后将这些位置投影到世界地面平面,并用新的团覆盖问题公式进行融合,同时还提出利用域通用的行人再识别模型在融合期间对行人外貌的选择性步骤,评估表明,在具有挑战性的 WILDTRACK 数据集上,所提出的方法获得了 0.569 的 MODA 和 0.78 的 F 分数,优于现有的最先进的通用检测技术。
Apr, 2021
本论文提出了一种基于视觉语言自监督学习的上下文感知行人检测方法 (VLPD),采用自生成的显式语义类标签来学习语义分割和行人检测任务,并提出了自我监督原形语义对比学习方法来更好地判别行人和其他分类,并在流行的基准数据集上进行了广泛的实验,证明了我们提出的 VLPD 在小尺度和重度遮挡等挑战性情况下均具有优越的性能。
Apr, 2023
本文提出了一种基于语义分割的人行检测算法,通过联合监督语义分割和人行检测,使得神经网络在不损失效率的情况下大幅度提高检测准确率,实验证明该方法较先进算法在 Caltech 数据集上有显著的提高。
Jun, 2017
利用通用化人工智能改进无标签目标场景的多视角 3D 行人检测,通过使用未经训练的检测器的自动标注方法,可以获得比直接使用未经训练检测器或使用现有标记的源数据集训练的检测器更好的结果。在使用 WILDTRACK 和 MultiviewX 作为目标数据集时,MODA 比现有的无标签方法分别提高了 4% 和 1%。
Aug, 2023
这篇论文提出了使用多视角视频进行无监督 4D 视觉场景理解的方法,可以同时估计每个像素的具体模型和实例级别分割,并利用最近的 3D 姿势估计技术约束联合语义实例分割和 4D 时间上连贯的重建,以能够精准地分割多个动态场景中相互作用的人,实验表明与现有方法相比,语义分割、重建和场景流的准确性都显著提高了大约 40%。
Jul, 2019
本研究针对光照不足条件下的多光谱行人检测,提出了一种融合网络架构,包括多光谱提议网络和多光谱分类网络。该网络通过同时优化行人检测和语义分割任务进行学习,并通过整合不同模式和两个阶段的输出来获得最终的检测结果,在 KAIST 数据集上显著优于现有方法。此外,作者也提供了一个经过消毒的 KAIST 数据集训练标注,帮助解决不同种类标注错误的问题。
Aug, 2018
本文提出一种基于 RGB 和热图像的、具有新颖空间上下文深度网络结构和多模态特征嵌入模块的行人检测端到端多模态融合模型,其能够在真实世界的日夜低光照条件下实现高效而准确的检测。
May, 2021