点云在提取视频目标特征中的应用
本文提出了一种融合神经网络、视觉语义分割、在自主驾驶场景下的 3D 目标检测方法,引入了一种名为 SRTs 的快速评估指标,并采用状态优化的多目标特征跟踪机制,实现了高精度和实时性的平衡,并在 KITTI 基准测试中验证了方法的有效性。同时,该方法首次将视觉语义与 3D 目标检测相融合。
Apr, 2019
本文介绍了 SAM-PT 方法,将 SAM 方法扩展至跟踪和分段动态视频中的任何内容,利用强健的和稀疏的点选择和传播技术进行 mask 的生成,并在 DAVIS、YouTube-VOS 和 MOSE 等流行的视频对象分割基准中展示 SAM 基于分割跟踪器可以产生强的零度成像性能。
Jul, 2023
该论文提出了一种基于 YOLOv5-OBB、置信度阈值过滤算法和最优排序算法的深度学习解决方案,用于自动提取航空影像中地面控制点坐标信息,取得了较好的检测效果,并可作为全流程航空三角测量的重要工具。
Mar, 2023
通过利用视频数据的多目标和时间特征,我们提出了一种名为 POPCat 的高效方法来创建用于分割或基于框的视频注释的半监督管道,使其在产生更大泛化能力的半监督注释的同时保持与人工注释相当的准确性。该方法通过使用粒子追踪器利用时间特征来扩展人工提供的目标点的域,然后利用此生成的数据训练 YOLO 模型,并快速推断目标视频。对 GMOT-40、AnimalTrack 和 Visdrone-2019 基准进行评估,这些多目标视频跟踪 / 检测集包含多个外观相似的目标、摄像机运动和其他在 “野外” 情况中常见的特征。我们特别选择这些困难的数据集来展示该管道的有效性并进行比较,结果显示在 GMOT-40、AnimalTrack 和 Visdrone 上相对于最佳结果的召回率 /mAP50/mAP 上分别提高了 24.5%/9.6%/4.8%、-/43.1%/27.8% 和 7.5%/9.4%/7.5%。
Jun, 2024
该研究针对长时间监控视频提出了基于内容的检索方法,并使用局部时空特征进行轻量级处理,最终实现通过动态规划将局部匹配汇集成与用户指定事件相关的完整视频段的目的。该方法克服了施工路线漫长、视频内容对比度低以及物体遮挡等难题,并可用于计数、移动模式识别和遗留物品检测等应用。
May, 2014
本文提出了一种基于 BoxCloud 和特征融合的 3D 物体跟踪算法,相比于之前的算法,在 KITTI 和 NuScenes 数据集上有了很大的提升。
Aug, 2021
未来的智能车辆必须能够理解并安全地穿行其周围环境。基于摄像头的车载系统可以使用关键点和物体作为 GNSS 无关的 SLAM 和视觉里程计的低级和高级地标。为此,我们提出了 YOLOPoint,一种将 YOLOv5 和 SuperPoint 结合起来,在图像中同时检测关键点和物体的卷积神经网络模型,通过使用共享骨干和轻量级网络结构,YOLOPoint 在 HPatches 和 KITTI 基准测试上表现出了竞争力。
Feb, 2024
本文提出了一种基于形状匹配和纹理匹配的新型跟踪算法来精确高效地跟踪 CoMaL 点,并在实验中证明在不同的现实应用中,特别是在物体边界方面相较于简单的重新检测和匹配框架以及 KLT 算法在速度和准确性方面有所提升。
Jun, 2017
本文提出了一种基于学习的多边形点集跟踪方法,通过全局 - 局部对齐和精细设计的损失和正则化项,以多边形点集方式传播目标轮廓,从而实现运动跟踪、部分变形和纹理映射等多种视觉效果。同时通过 VOS 数据集的学习策略,避免了点对应数据集的开发,并在新的跟踪数据集上证明了该方法的优异性能。
May, 2021