自主驾驶中基于运动的无监督感知与预测
本文介绍了一种多模态自动标注流程,可以生成用于训练开放式类别的无标注 3D 边界框和轨迹,从而处理自动驾驶等安全关键应用中可能在部署后遇到的新物体类型。相比于当前领域的最新研究,我们的方法可以以无监督的方式处理静态和移动的对象,并通过提出的视觉 - 语言知识蒸馏方法输出开放式词汇的语义标签。基于 Waymo 开放数据集的实验证明,我们的方法在各种无监督 3D 感知任务上显著优于先前的工作。
Sep, 2023
本文提出了一种基于点云数据和自监督学习的动态估计框架,旨在高效精确地估计自动驾驶汽车与其他动态交通参与者的相对运动状态,并在实验中表现出与有监督方法相当的竞争力。
Apr, 2021
本文介绍了一种使用自我监督的技术,基于最近邻和循环一致性,来训练场景流模型,从而解决在自动驾驶过程中对高动态环境的非刚性物体移动的计算问题,并且其性能优于当前标注了实际场景流数据的最新的有监督学习方法.
Dec, 2019
本研究采用自监督的物体中心视觉模型,只使用 RGB 视频和车辆姿态作为输入,实现了物体分解,并在 Waymo 开放感知数据集上展示了正面的结果。
Jul, 2023
该研究介绍了当前最全面的交互式动作数据集,包含超过 100,000 个场景,用于发展动作规划模型与提供强大的基线模型来对单独或多个交互式对象进行预测,并提供了新的度量方法。
Apr, 2021
本文提出了一种基于模块化架构的学车任务分解方法,在障碍感知、目标预测和规划方面均取得了优秀的方法,并在 CARLA 模拟器上实现了最新的优秀结果。
Dec, 2022
本文针对对象发现这一问题,通过选择动态对象并使用自编码器提取图像特征并加入来自运动分割的弱学习信号,成功地从复杂场景中分离出运动和静止的动态对象,相较于其它抽象特征的方法在 KITTI 数据集上有更好的表现。
Mar, 2022
本文提出了一种自监督学习框架,从视频中估算单个对象的运动和单眼深度,并将对象运动建模为六个自由度刚体变换;此外,该方法还使用实例分割掩码引入对象信息,并通过引入新的几何约束损失项消除运动预测的尺度歧义,实验结果表明,该框架在不需要外部注释的情况下处理数据并能够捕捉对象的运动,与自监督研究方法相比,在 3D 场景流预测方面有更好的表现,对动态区域的视差预测也有所贡献。
Dec, 2019
本篇研究提出了一种新的基于条件运动传播和稀疏光流技术的自监督学习范式,能够有效地学习视觉表征,并在语义分割、实例分割以及人体解析等多个任务上实现最先进的自监督学习表现,还能实现半自动像素级标注。
Mar, 2019