从视频中预测驾驶员意图
该研究开发了一种能够利用 LiDAR 传感器产生的 3D 点云和环境动态地图的多任务模型,以识别其他交通参与者的意图,并实现减少自动驾驶应用程序反应时间的目的,与分离模块相比达到更高的准确性和节省计算资源。
Jan, 2021
本文提出了一种先进的驾驶辅助系统,通过使用相机和计算设备,捕捉车辆内外的驾驶环境并使用自回归输入 - 输出 HMM 模型来预测驾驶员的驾驶操作,实现在真实环境下 3.5 秒内实时预测驾驶操作,达到 F1 得分超过 80%。
Apr, 2015
本文提出了一种基于深度神经网络的语义意图和运动预测(SIMP)方法,该方法使用语义定义的车辆行为来适应任何驾驶场景,结合分类意向和运动信息准确地预测自动驾驶车辆的行驶路径。
Apr, 2018
本文提出了一种新的预测驾驶行为的框架,称为 “跨视图情节记忆变换器 (CEMFormer)”,能够通过时空变换器来学习驾驶员行为的一致内部表现,集成车内外摄像头信息和历史数据,利用提出的上下文一致损失作为辅助监督信号来改善预测性能,使用 Brain4Cars 数据集的广泛实验表明 CEMFormer 在驾驶员意图预测方面始终优于现有最先进的方法。
May, 2023
本文研究如何利用图像信息来预测行人的行为,提出了几种基于 CNN 和 Transformer 的时空模型,分析了这些模型的预测结果的可解释性,强调在行人行为预测问题中可解释性的重要性。
May, 2023
该研究使用卷积神经网络和 Transformer 网络从轨迹历史记录和卫星图像中提取时间空间和语境信息,对停车场中人驱动车辆的多模态意图和轨迹预测问题进行了研究,并提出了一种新的方法,能够更精确地预测多个模态,并编码复杂的多智能体场景,同时能够适应不同的停车地图。为了训练和评估方法,该研究还介绍了一组公开的 4K 视频数据集,其中包括了准确的注释、高帧率和丰富的交通场景。
Apr, 2022
本文研究利用低成本车载摄像头进行自主驾驶算法,并通过深度神经网络将原始输入图像直接映射到方向盘角度的视觉模型,提出了一种结合空间和时间线索的模型,有助于解释学习到的模型,通过分析人类驾驶数据,比较了此模型与其他自主驾驶车辆状态先进模型的性能差异。
Aug, 2017
在这项工作中,我们提出了一种汽车传感器丰富的平台和学习算法用于机动预测,该平台使用多个传感器流并联学习以提前预测机动,并提出了一种新颖的训练流程,我们提供了一个包含 1180 英里自然高速公路和城市行驶数据集,在现实时间内可以预测 3.5 秒的机动,精确度和召回率分别为 90.5%和 87.4%。
Jan, 2016
该研究提出一种采用注意力机制和递归神经网络融合序列 RGB 影像、语义分割掩码和自车速度的神经网络结构,用于预测行人过马路意图,从而解决全局时空上下文与融合传感器数据的最优策略问题,实现了针对自动驾驶系统中行人行为预测的最优性能。
Apr, 2021