语义驱动的多摄像头行人检测
提出了一种多相机 3D 行人检测方法,该方法不需要使用目标场景的数据进行训练,通过基于人体姿势和来自现成单目检测器的人物包围框的新启发式方法在地面平面上估计行人位置,然后将这些位置投影到世界地面平面,并用新的团覆盖问题公式进行融合,同时还提出利用域通用的行人再识别模型在融合期间对行人外貌的选择性步骤,评估表明,在具有挑战性的 WILDTRACK 数据集上,所提出的方法获得了 0.569 的 MODA 和 0.78 的 F 分数,优于现有的最先进的通用检测技术。
Apr, 2021
本文提出了一种基于语义分割的人行检测算法,通过联合监督语义分割和人行检测,使得神经网络在不损失效率的情况下大幅度提高检测准确率,实验证明该方法较先进算法在 Caltech 数据集上有显著的提高。
Jun, 2017
本文提出一种基于 RGB 和热图像的、具有新颖空间上下文深度网络结构和多模态特征嵌入模块的行人检测端到端多模态融合模型,其能够在真实世界的日夜低光照条件下实现高效而准确的检测。
May, 2021
该论文提出了一种名为 PedHunter 的有效和高效检测网络,引入了强大的遮挡处理能力来检测拥挤场景中的行人,采用掩码引导模块增强骨干网络的特征表示学习,改进正样本的质量提高分类准则,采用模拟遮挡数据来提高遮挡鲁棒性,在三个行人检测数据集上取得了最先进的结果,并发布了一个包含超过 162k 高质量手动标记实例的新行人数据集 SUR-PED,以便于进一步研究监视场景中的遮挡行人检测。
Sep, 2019
本研究针对光照不足条件下的多光谱行人检测,提出了一种融合网络架构,包括多光谱提议网络和多光谱分类网络。该网络通过同时优化行人检测和语义分割任务进行学习,并通过整合不同模式和两个阶段的输出来获得最终的检测结果,在 KAIST 数据集上显著优于现有方法。此外,作者也提供了一个经过消毒的 KAIST 数据集训练标注,帮助解决不同种类标注错误的问题。
Aug, 2018
本文提出了一种无监督多视图行人检测方法(UMPD),通过利用视觉 - 语言预训练模型的零样本语义类别,结合迭代主成分分析和垂直差分渲染技术,不依赖于标记数据完成多视图行人检测,具有与有监督技术媲美的性能。
May, 2023
针对密集环境下行人检测中存在的遮挡和高度拥挤等问题,本文提出了一种基于属性感知的行人检测器,采用深度学习框架,利用属性特征进行检测和区分,引入了基于属性特征的非极大值抑制,设计了一种新的数据集以缓解训练过程中的困难,实验表明该方法在行人检测方面优于目前的最新方法。
Oct, 2019
通过提出一种新的深层模型,从多个数据源中学习高级特征和多个任务,这项工作联合优化了行人检测及语义任务,包括人行属性,场景属性等,并设计了一个多任务函数来协调任务和减少数据集之间的差异,通过大量验证,证明了该方法在 Caltech 和 ETH 数据集上优于最先进的模型.
Nov, 2014