IntentNet: 从原始传感器数据中学习预测意向
本文提出了一种基于图像序列的单目 RGB 相机的实时框架,使用区别于基线方法的跟踪 - 检测技术和创新的时空 DenseNet 模型识别、跟踪和预测行人在城市交通环境中的意图和动作,以实现对自主地面车辆行为的理解。实验表明,该方法在实时性和效果方面比其他基线方法更具鲁棒性和竞争力,平均精度得分为 84.76%,帧率为 20FPS。
Apr, 2019
通过使用车内和外部摄像头数据,本研究提出了一种新的方法来改善对未来驾驶动作的预测性能,通过明确提取外部摄像头数据中的对象和道路级特征,我们的模型能够更准确地提前预测驾驶员意图,并提高道路安全性。
Dec, 2023
本文提出了一种基于深度神经网络的语义意图和运动预测(SIMP)方法,该方法使用语义定义的车辆行为来适应任何驾驶场景,结合分类意向和运动信息准确地预测自动驾驶车辆的行驶路径。
Apr, 2018
该论文介绍了一种基于分层方法的导航系统,该系统采用无模型深度学习和基于模型的路径规划来帮助机器人在新环境下到达目标地点,通过预训练的意图网络来进行本地导航和与路径规划器的融合,实现在新环境和目标中的有效泛化。
Oct, 2017
本文提出了一种新颖的基于特征融合的多传感器融合技术,结合仿真学习实现端到端自动驾驶导航。论文的重点在于 Lidar 和 RGB 信息的融合技术,同时提出基于惩罚的仿真学习方法,以加强模型对交通规则的遵守,并统一仿真学习和自动驾驶指标的目标。
Mar, 2023
为了解决自动驾驶汽车在遇到突然出现的路障时反应时间不足的问题,我们提出了一种新颖的基于 MediaPipe 姿态估计模型的算法实现,用四元数将单一行人的意图分类为逻辑状态,避免了使用深度学习算法的必要性,并且通过在 IoT 边缘设备上运行来避免了计算资源的限制。该模型在平均延迟 48 毫秒的情况下,实现了 83.56%的平均测试准确率,相对标准的时空卷积网络的使用具有显着优势。
Apr, 2023
该研究使用卷积神经网络和 Transformer 网络从轨迹历史记录和卫星图像中提取时间空间和语境信息,对停车场中人驱动车辆的多模态意图和轨迹预测问题进行了研究,并提出了一种新的方法,能够更精确地预测多个模态,并编码复杂的多智能体场景,同时能够适应不同的停车地图。为了训练和评估方法,该研究还介绍了一组公开的 4K 视频数据集,其中包括了准确的注释、高帧率和丰富的交通场景。
Apr, 2022
本文提出一种新的多模态数据预测人类意图的方法,通过机器学习算法分析运动学信息、运用分类任务进行实验验证、结合 3D 和 2D 数据以及 2D+3D 融合分析,成功预测出未来的动作,展示了多模态方法在上下文无关的人类意图预测中的优越性。
May, 2016
通过自动驾驶汽车实现精确的行人意图预测是当前研究中的挑战之一。本文介绍了 PIP-Net 框架,用于预测自动驾驶汽车在现实城市场景中行人过马路意图。该模型利用运动数据和驾驶场景的空间特征,采用一种基于循环和时间注意力的解决方案,优于当前最先进的模型。为了提高道路使用者的视觉表达以及它们与本车的距离,我们引入了一个分类深度特征图和一个局部运动流特征,提供对场景动态的丰富洞察力。此外,我们还探索了将视野从一个相机扩展到围绕本车的三个相机的影响,从而增强了模型的上下文感知能力。根据交通场景和道路环境的不同,该模型能够提前 4 秒准确预测行人过马路意图,这是当前行人意图预测研究的突破。最后,我们首次提出了 Urban-PIP 数据集,这是一个自动驾驶情景下的定制行人意图预测数据集,包含多相机注释。
Feb, 2024