使用特征图流实现实时 3D 物体检测
本研究提出了一种新颖的 Temporal Fusion 模块(TFM)用于三维物体的检测,它结合了先前时间步骤中的信息以减轻单帧噪声、场景视野阻塞和稀疏性对三维物体检测的影响,实验结果表明,相较于基线方法的帧间检测,我们在 KITTI 目标跟踪数据集上分别实现了 6%,4%和 6%的改进。
Apr, 2021
利用自车与基础设施传感器数据的合作使用可以显著提高自主驾驶感知能力,为解决车辆 - 基础设施合作三维物体检测中的问题,我们提出了一种新的合作检测框架 Feature Flow Net (FFNet),它是一种基于流的特征融合框架,利用特征流预测模块预测未来特征并进行补偿,同时引入自监督训练方法使 FFNet 能够从原始基础设施序列中生成具备特征预测能力的特征流,在 DAIR-V2X 数据集上实验结果表明,我们的方法在只需 1/100 的原始数据传输成本且在一个模型中覆盖所有延迟的情况下,优于现有的合作检测方法。
Nov, 2023
该研究提出了一种基于流引导特征聚合的视频物体检测学习框架,该框架通过沿着运动路径聚合邻近特征来提高视频的识别精度,避免了视频中物体外观退化的问题,并且完全可训练,与 ImageNet VID 挑战的最佳工程系统相当
Mar, 2017
本文提出一种深度神经网络模型,可以在利用 3D 传感器获取的数据的基础上联合推理 3D 检测、跟踪和运动预测,该方法在鸟瞰图表示的 3D 世界上执行时空 3D 卷积,具有高效的特点,并在多个北美城市捕获的超大规模数据集上进行实验,结果显示该方法在性能上大幅领先于现有技术,而且多项任务仅需要 30 毫秒即可完成。
Dec, 2020
研究了 3D 目标检测中的 2D 检测问题,提出了基于全卷积单级检测器的通用框架 FCOS3D,在不使用 2D 检测或 2D-3D 对应先验的前提下,通过重新定义中心性和将对象分配到不同的特征级别等方式,得到了简单而又高效的解决方案。在 NeurIPS 2020 的 nuScenes 3D 检测挑战赛中,该方法在所有只使用视觉信息的方法中获得第一名。
Apr, 2021
本文使用深度学习框架对 FMCW 雷达进行物体检测和 3D 估计,在处理雷达训练数据时,通过图像分析提供三维空间中物体方向的真实值,并提出归一化方法以确保成功训练完全卷积网络 (FCN),该系统能够在嘈杂环境中成功检测到汽车并进一步估计其 3D 位置。
Feb, 2019
本文提出了一种名为 'Flow Alignment Module' 的方法,通过学习场景不同层级之间的语义流,并将高层次特征有效和高效地广播到高分辨率特征,使得在轻量级骨干网络上如 ResNet-18 表现卓越,在 Cityscapes 数据集上获得了 80.4% 分割精度,时速达到 26FPS。
Feb, 2020
本论文提出了一种用于自动驾驶场景中多模态三维物体检测的新型融合网络 FBMNet,其通过在边界框级别上学习对应关系以自由化校准依赖,从而提供了一种用于跨模态特征对齐的替代方法。在 nuScenes 数据集上的实验表明,该方法比现有融合方法更加稳定有效,适用于异步传感器、错位传感器放置和退化相机图像等复杂情况,为实现自动驾驶场景中安全而提供了一种可行解决方案。
May, 2023
这篇论文研究自动驾驶中的实时视频物体检测问题,提出了一种基于流式预测的新型深度学习方法,该方法使用双流动态静态感知模块(DFP)来捕捉运动趋势和基本检测特征,并引入趋势感知损失(TAL)和趋势因子来产生适应性权重,进而优化移动车辆物体的检测结果。
Mar, 2022