流式感知的实时目标检测
通过深度强化学习来最大化考虑到精度和延迟之间的权衡,从而为流式感知提供一种新的方法。我们的代理可以跨多个决策维度学习一种竞争策略,在公共数据集上胜过最先进的策略。
Jun, 2021
本文提出了一种名为 “流式准确性” 的方法,该方法将感知延迟和准确性相结合,可用于任何单帧任务变成流式感知任务的系统性 meta-benchmark,以及在城市视频流中的物体检测和实例分割等任务上做出了令人惊讶的结论。
May, 2020
本文介绍我们基于 YOLOX 模型设计的实时 2D 目标检测系统,适用于现实中自主驾驶场景,我们在 Argoverse-HD 数据集上实现了 41.0 的实时准确率,超过了第二名 7.8/6.1 的检测轨迹 / 完全轨迹,此外,配备 TensorRT,我们的模型在高分辨率输入大小下达到了 30FPS 的推理速度。
Jul, 2021
自动驾驶的环境感知是关键因素,研究着重于实现实时感知与预测,通过在不同资源环境中进行计算卸载,最终的模型可以在云端实时运行并提供较好的性能。
Aug, 2023
本论文介绍了将最先进的计算机视觉算法应用于自动驾驶赛车的实际挑战和解决方案,包括基于 YOLOv3 的物体检测,姿态估计和双目 / 单目视觉摄像头的时间同步,强调了适用于赛车领域的感知卷积神经网络的修改,姿态估计所使用的损失函数的改进以及亚微秒级相机同步的方法等。我们对该系统进行了彻底实验评估,证明其在实际赛车场景中具有准确性和低延迟性。
Jul, 2020
通过结合 YOLO 系列的最新进展与空间和时间感知机制的综合分析,我们提出了 DAMO-StreamNet 优化框架,以实现实时感知,融合了四个关键创新点,超越了现有的前沿方法,不仅为实时感知设置了新的基准,而且也为未来的研究提供了宝贵的见解。
Mar, 2023
提出了 LongShortNet 模型,该模型能够在流处理中捕捉长期时间运动模式、整合短期空间信息,实现空时特征融合,具有较强的检测效果。
Oct, 2022
近期,随着计算机视觉的不断进步,自动驾驶很可能很快将成为现代社会的一部分。然而,仍然有许多需要解决的问题。本研究评估了我们先前提出的高效行人检测器 LSFM 在多样化的天气条件和夜间场景等经典自动驾驶测试中的稳健性,并将其扩展应用于交通场景中实时物体检测,同时提出了适用于自动驾驶的更合适的实时性能指标。
Jan, 2024
本文提出了一种新方法,Octopus,根据场景难度和障碍物位移等因素来选择配置,以最大化流媒体环境下的跟踪精度 (S-MOTA),进一步提高离线准确性的同时,将跟踪性能提高了 7.4%。
Aug, 2022