自主无人机赛车中鲁棒门探测的持续学习
本研究提出了一种基于全局轨迹布局及卷积网络预测与卡尔曼滤波融合的方法,重点解决自主微型飞行器的难以精确的导航、环境不确定以及姿态估计误差等问题,成功应用于 IROS2018 无人机比赛中并取得优异成绩。
Oct, 2018
利用卷积神经网络直接映射原始图像到航点和所需速度的强鲁棒性生成,使用路径规划和控制系统生成短的、最小时间轨迹段,测试表明该方法能够在动态环境中准确和稳健地实现无人机的自主飞行,不需要昂贵的硬件和昂贵的图像处理,且比专业的人类驾驶员更加高效。
Jun, 2018
本文提出了一个新颖的自主、基于视觉的无人机竞速系统,结合学习的数据抽象、非线性滤波和最优时间轨迹规划,该系统已成功在 2019 年 AlphaPilot 挑战赛中部署。与传统的无人机竞赛系统不同,该方法利用任何可见的门并利用多个同时检测到的门来补偿状态估计中的漂移和构建门的全局地图。全局的地图和补偿漂移的状态估计使得无人机在比赛中可以在门不直接可见时导航,并且可以基于近似的无人机动力学实时规划近似最佳路径通过比赛赛道。所提出的系统已经成功地指导无人机穿越狭窄的比赛赛道,达到了每秒 8 米的速度,并在 2019 年 AlphaPilot 挑战赛中排名第二。
May, 2020
本文提出了一种视觉惯性算法,该算法比如视觉惯性测距和同时定位和映射等导航方法更加高效,可以用于计算机无人机竞速,该算法通过将比赛门检测与模型动态预测融合来估计无人机的位置。实际测试中,飞行测试在一架 72g 的迷你无人机上完成,得到了最高速度为 2.6m/s,从而使其成为世界上最小的自主竞速无人机之一。
May, 2019
我们将最先进的规划和控制系统与卷积神经网络相结合,实现了自主机器人在动态环境中的高速飞行和对感知目标的实时认识,无需进行任何调整,同时通过领域随机化生成大量的模拟数据,使我们的系统对光照和目标出现变化具有鲁棒性,实现了在敏捷无人机飞行任务中的零次模拟到实际的成功展示。
May, 2019
通过学习深度的感知动作策略,使用对比学习从输入图像中提取固定特征表示,通过两阶段的作弊式学习框架训练神经网络策略,将视觉驱动的自主无人机竞赛问题转化为了提取原始图像的特征表示进行控制命令推断,无需全局一致的状态估计、轨迹规划和手工控制设计。该方法不仅可使控制策略更具有鲁棒性,而且可以实现与状态法相同的赛车性能,为开发纯靠图像输入控制无人机的智能视觉自主系统铺平了道路。
Oct, 2022
本论文介绍了将最先进的计算机视觉算法应用于自动驾驶赛车的实际挑战和解决方案,包括基于 YOLOv3 的物体检测,姿态估计和双目 / 单目视觉摄像头的时间同步,强调了适用于赛车领域的感知卷积神经网络的修改,姿态估计所使用的损失函数的改进以及亚微秒级相机同步的方法等。我们对该系统进行了彻底实验评估,证明其在实际赛车场景中具有准确性和低延迟性。
Jul, 2020
通过使用 CycleGAN 合成多个天气条件下的数据集,我们在自主赛车中将最先进的四个探测器的性能平均提高了 42.7 和 4.4 mAP 百分点,并进行了五种目标探测器的比较分析,以确定在挑战性条件下自主赛车中使用最佳探测器和训练数据。
Jan, 2022
提出了一种基于 RGB-D 相机的实时动态障碍物跟踪和建图系统,该系统使用 “占用格子图” 生成动态障碍物区域,应用卡尔曼滤波和连续滤波来跟踪每个动态障碍物,并提出了一种基于 Markov 链的环境感知轨迹预测方法。实验结果表明,该方法可以在动态环境中实时成功跟踪和避免障碍物。
Sep, 2022
该研究利用深度神经网络和数据增强来训练自主赛道竞速的无人机,表明数据增强对于端到端学习非常重要,并且优化后的神经网络能够在嵌入式硬件上实时运行,适用于实际部署。
Aug, 2017