- 从检测到动作识别:面向机器人人体感知的基于边缘的流程
移动服务机器人通过对人类行为的识别和跟踪,实现了对人类行为的理解和响应,主要依赖于人类行为识别和边缘计算处理的效果良好的模型。
- NOMAD: 自然、遮挡和多尺度空中数据集,应用于紧急响应场景
利用小型无人机系统(sUAS)进行紧急响应场景的搜索与救援,集成计算机视觉能力成为任务成功的关键因素。然而,从地面视角转移到空中视角时,计算机视觉在检测人类方面的性能严重下降。本文介绍了一个针对遮挡视角下的人体检测的多尺度空中遮挡自然数据集 - 人体检测错误的预防:基于部件的自我监测框架
提出了一种自我监测框架,通过在运行时进行合理性检查来检测学习对象,特别是人体检测,在减少漏检人体的数量,减少虚警检测的数量方面取得了显著成果。
- 通过热红外与毫米波雷达融合,在视觉退化下实现强韧的人体检测
本文介绍了一种多模式人体检测系统,结合了便携式热成像相机和单芯片毫米波雷达。为了减轻热成像相机低对比度和雷达点云多路径噪声引起的检测特征噪声,我们提出了一种贝叶斯特征提取器和一种新颖的不确定性引导融合方法,超过各种竞争方法,无论是单模式还是 - 基于事件相机和激光雷达的亚地表环境下恶劣光照条件下人体跟踪
该研究提出了一种新的 LiDAR 和事件相机融合模式,用于在 SubT 环境中快速、精确地检测对象和人,实现反应跟踪,并在实验中得到验证。
- AAAI真假文本?:探究人类识别人写与机器生成文本边界的能力
本文研究了如何使用最先进的神经语言模型使人工创作的文本过渡为文本生成,并且展示了该任务上的众议员的技能差异。通过比较多种变量的影响,我们收集了 RoFT 数据集,以鼓励未来在人工检测和评估生成的文本方面进行更多的研究。
- ECCVMT_IoT 团队多目标跟踪挑战技术报告
本文主要介绍了我们针对在复杂环境下的多目标跟踪挑战提出的方法,将其作为两个阶段的任务,包括人体检测和轨迹匹配,并具体设计了一个改进的人体检测器和一个位置匹配矩阵,使其在 DanceTrack 数据集上获得了高达 66.672 HOTA 和 - CVPRPieTrack:基于合成数据训练和自监督域自适应的 MOT 解决方案
使用合成数据以及自监督领域适应方法,得到了可行的人体检测和追踪结果,并在 MOT17 中获得了 58.7 的 HOTA 分数,排名第三。
- 空中监视现状:一项调查
本文旨在从计算机视觉和模式识别角度全面介绍以人为中心的空中监视任务,主要关注无人机、无人航空器和其他航空平台的应用,探讨其在人类检测、识别、跟踪、行为分析方面的挑战及应对方法,并提出未来研究方向。
- 对抗性 YOLO: 通过检测对抗性贴片来防御人类检测贴片攻击
本文介绍一种名为 Ad-YOLO 的有效的插件式防御方案,它可以有效地解决面对物理世界中的侵袭攻击的问题,能够直接检测目标对象和敌对补丁的存在。经实验测试,Ad-YOLO 比 YOLOv2 在面对攻击时表现出更好的鲁棒性和稳定性。
- 通过主要目标抑制检测人群中的次要人员实例的 PS-RCNN
本文提出了一种名为 PS-RCNN 的人物检测方法,通过引入人形掩膜来解决高度遮挡的问题,使用两个 R-CNN 模块来检测图像中的不同部位的对象,以及 HRRA 模块以保留细节特征,相较于基准检测方法,在 CrowdHuman 数据集上提高 - 联合头部和人体检测的关系学习
该研究提出了一种新的联合头部和人体检测网络,包括设计一个头体关系区分模块执行头和身体之间的关系学习,并利用所学关系来减少头部误报率和提高人体检测率。进行相关实验后,该联合检测器在三个基准数据集中取得了最佳性能,且提供新的注释,源代码和训练模 - 双锚点 R-CNN 用于拥挤情况下的人物检测
本文提出了一种名为 Double Anchor R-CNN 的框架, 处理拥挤场景下的人体检测,通过身体和头部匹配双重先验区域提出与提出交叉策略以及联合的后期处理模块,实现在拥挤场景下同时检测每个人的头部和身体,并在 CrowdHuman, - CrowdHuman:人群中检测人物的基准
本文介绍了一个新的数据集 CrowdHuman,用于更好地评估人群场景中的探测器,该数据集包含各种各样的遮挡问题,通过对比先前的数据集,展示了在 Cross-dataset generalization 方面的表现。
- 基于边缘网络服务的智能监控:从 Harr-Cascade、SVM 到轻量级 CNN
使用边缘计算及轻量级卷积神经网络,能够在资源有限的情况下为实时人类监视提供可行的智能分析方案。
- CVPR使用视觉显著性提高卷积神经网络中的人体检测:ViS-HuD
本文提出一种基于深度学习的技术来提高静态图像中人物的检测,其中通过计算图像的视觉显著性图,对输入图像进行处理并通过基于 CNN 的人物检测方法,该方法在 Penn Fudan 数据集上达到 91.4% 的人物检测准确率,并在 TUDBrus - 全局,实例级人体解析
该论文讨论了通过实例级别的语义部件分割实现目标解析的方法。网络结构由分类级别分割模块以及可处理每个图像中不同数量人体检测结果的差分有条件随机场组成,网络通过单次前向传递输出实例级别部件和人体部分分割结果,同时能够实现有效的目标计数和分类级别 - ICCV视频监控中的人体检测与跟踪 —— 认知科学方法
通过采用方向梯度直方图、视觉显著性和深度多层网络的显著性预测模型,结合 k 均值算法,该研究提出了一种用于视频中检测人的方法,取得了 83.11%的检测精度、41.27%的召回率的效果,并比在普通图像上对人物进行分类的速度快 76.866 - 深度姿态姿势特征用于人体检测
本文通过基于 poselets 的部分方法解决了在自然场景中检测人的问题,并使用 bootstrapping 方法收集了数以百万计的弱标记示例来训练卷积神经网络以区分不同的 poselet 类型和背景类。通过训练 poselet 模型来识别