自主驾驶的自监督支柱运动学习
提出一种基于 LiDAR 的自主驾驶的自监督运动估计器,采用特征级一致性预测场景运动,使用 Soft 判别损失进行对比学习,使用门控多帧融合块自动学习点云帧之间的有效补偿,最终通过支柱关联预测支柱对应概率,进而预测场景运动。
Apr, 2023
本文提出了一种基于 3D 自监督学习的点云学习方法,通过旋转点云实现无标签的自我监督,在形状分类和 3D 关键点预测等任务上表现出色,学习到的特征优于其他自监督方法。
Aug, 2020
本文研究了基于自监督学习的点云中的 3D 场景流估计和无类别运动预测,通过分片刚性运动估计生成伪场景流标签进行自监督学习,实验证明该方法在自监督场景流学习方面取得了新的最先进性能,并在 nuScenes 数据集上显着优于之前最先进的自监督方法的类别无关运动预测。
Oct, 2023
本文提出一种使用自学生成流技术的框架,自动学习行驶中的自由运动的物体,以替代在自主驾驶系统中昂贵的人工标注,实现更广泛、准确、自主的交通参与者识别和动作预测。
Oct, 2022
本文提出了一种新的实时方法,基于三维点云序列,采用时间上下文聚合实现动态检测和运动参数估计,可适用于自动驾驶车辆在复杂城市环境下进行安全导航,不仅可以估计车辆或行人等常见道路参与者的运动,还可推广到其他没有在训练数据中出现的物体类别,并对不同的时间上下文聚合策略进行了深入的分析,提供了我们最先进模型与 KITTI 场景流数据集上现有解决方案的比较结果。
Apr, 2020
通过引入新颖的跨模态自监督训练框架,本文解决了点云方法中的假流和不一致性问题,提出了三种创新的监督信号来保留场景动作的内在属性,包括遮罩 Chamfer 距离损失、分段刚性损失和时间一致性损失,通过广泛实验证明,我们提出的自监督框架在动作预测任务中优于所有先前的自监督方法。
Jan, 2024
本研究提出了一种自监督学习方法用于激光雷达帧的语义分割,通过结合 SLAM 和光线追踪算法实现自动化注释,训练预测机器人移动场景中的固定结构和可动目标的深度学习模型,同时改进机器人的导航和本地化性能,为机器人导航和目标定位提供了新的途径。
Dec, 2020
本篇研究提出了一种新的基于条件运动传播和稀疏光流技术的自监督学习范式,能够有效地学习视觉表征,并在语义分割、实例分割以及人体解析等多个任务上实现最先进的自监督学习表现,还能实现半自动像素级标注。
Mar, 2019
本文提出了一种自监督学习框架,从视频中估算单个对象的运动和单眼深度,并将对象运动建模为六个自由度刚体变换;此外,该方法还使用实例分割掩码引入对象信息,并通过引入新的几何约束损失项消除运动预测的尺度歧义,实验结果表明,该框架在不需要外部注释的情况下处理数据并能够捕捉对象的运动,与自监督研究方法相比,在 3D 场景流预测方面有更好的表现,对动态区域的视差预测也有所贡献。
Dec, 2019