基于图像识别的自动驾驶车辆转向角度预测
本文研究利用低成本车载摄像头进行自主驾驶算法,并通过深度神经网络将原始输入图像直接映射到方向盘角度的视觉模型,提出了一种结合空间和时间线索的模型,有助于解释学习到的模型,通过分析人类驾驶数据,比较了此模型与其他自主驾驶车辆状态先进模型的性能差异。
Aug, 2017
在自动驾驶领域,使用卷积神经网络(CNN)进行端到端的方向控制任务已经取得了成功。但是单一任务学习方向控制并不足以进行车辆控制,因此本文提出了一种多任务学习的框架,通过预测视觉输入和上一时刻的速度反馈来同时预测方向控制和速度控制。通过实验,证明了该模型能够准确地预测方向角和速度值。此外,本文还改进了故障数据合成方法,以解决在真实道路测试中出现的错误积累问题。
Jan, 2018
该研究提出了一种基于 C-LSTM 的全面可训练的人工神经网络模型,用于根据前置摄像头数据流和关联的车辆转向角度学习驾驶的视觉和动态时间依赖关系。同时,将转向角度回归问题作为分类问题,并在输出层神经元之间施加一定的空间关系,从而通过学习编码转向角度的正弦函数的方法来进行转向预测,该方法在公开数据集 Comma.ai 上验证,相较于现有方法,平均根均方误差提升了 35%,转向更为稳定。
Oct, 2017
本项目实现了一个端到端系统,该系统接收来自普通摄像头的视频帧的综合视觉特征和来自点云扫描仪的深度信息,并预测驾驶策略(车辆速度和转向角度)。通过与真实世界经验丰富的驾驶员的标准行为进行比较,我们验证了我们系统的安全性。我们的测试结果表明,在至少一半的测试案例中(取决于模型),预测结果可以被视为准确的,并且与仅使用视频帧相比,使用综合特征在大多数情况下提高了性能。
Jul, 2023
本文提出了一个深度神经网络方法,使事件摄像头在车辆转向角度预测等困难运动估计任务上发挥潜力,并展示了从传统到基于事件的视觉进行传递学习的优势和优于基于标准摄像头的最先进算法的表现。
Apr, 2018
NVIDIA 的整个自动驾驶软件中的神经网络系统 PilotNet 能够根据道路前方的图像输出转向角,其根据观测到的人类驾驶员的行为进行训练。本文旨在解释 PilotNet 学习的内容以及其如何作出决策,通过实现确定道路图像中最影响 PilotNet 转向决策的元素的方法,展示 PilotNet 不仅学习了显而易见的车道标记、路边的边缘和其他车辆等特性,还学会了更加微妙难以预料和规划的特征,例如路边的灌木丛和非典型车辆类别。
Apr, 2017
本文介绍了一种新模型来补偿角度扰动,减小自动驾驶控制预测算法中的错误,通过公开可用数据集的扰动评估,显示该模型能将扰动图像的预测方向盘角度误差减小到 2.3%,从而使自动驾驶控制对摄像头角度扰动(当车轮经过坑洞时产生)具有鲁棒性。
Oct, 2023
本论文提供了一种基于封建网络和分层强化学习的车辆代理预测从车辆驾驶数据集中的第一视角实时图像进行自动驾驶方向盘角度预测的新方法,演示了在 Udacity 数据集上最先进的预测结果。
Jun, 2020
本文提出了一种基于置信度的联邦蒸馏方法,使用熵确定每个本地模型的预测置信度,选择最有信心的本地模型作为教师,以引导全局模型的学习,从而提高自动驾驶中基于视觉的车道中心控制的性能,优于现有的联邦学习算法 FedAvg 和 FedDF。
Jun, 2023