- FuseSeg:利用多模态数据融合 LiDAR 点云分割
本文提出一种简单而有效的 LiDAR 和 RGB 数据融合方法,该方法可以对 LiDAR 点云进行分割和特征提取,从而极大地提高了分割精度和实时性能。研究结果在 KITTI 基准测试中获得了最高 18%的 IoU 提升。
- ICCV自监督单目深度提示
该研究针对单目深度估计的自监督学习方法,在不需要昂贵激光扫描或其他基础数据的情况下,使用 Depth Hints 通过加入来自简单立体算法的参考感知补充了光度学重投影代价函数,从而提高训练深度估计网络时的深度预测精度,该方法取得了在 KIT - 2D/3D 目标检测的 IoU 损失
该研究探究了 IoU 计算在旋转边框中的应用,并实现了 IoU loss 层,使得在 2D 和 3D 目标检测任务中均获得了 KITTI 基准测试上的一致性改进。
- ICLRPseudo-LiDAR++: 自动驾驶中三维物体探测的准确深度
本文提出一种基于伪激光雷达(pseudo-LiDAR)的物体三维检测方法,通过改进其立体深度估计的网络结构和损失函数,以及通过利用稀疏的廉价激光雷达传感器的测量结果来传播深度估计值,从而实现对目标的准确检测。在 KITTI 数据集上的实验表 - 学习立体,推断单眼:用孪生网络进行自监督单目深度估计
本论文提出了一种新型的自监督单目深度估计方法,使用两张图像进行训练以及基于 Siamese 网络结构只使用其中一张图像来预测深度,在 KITTI 基准测试和 Make3D 基准测试中均取得了最优结果。
- ICCV基于伪激光雷达点云的单目 3D 目标检测
提升单目深度学习算法中对于三维场景物体检测的表现,通过伪 LIDAR 点云实现与 LIDAR 算法的融合,最终在 KITTI 基准测试中取得了最优结果。
- CVPR利用视觉深度估计的伪 LiDAR:弥合自动驾驶中 3D 目标检测的差距
本文提出一种基于卷积神经网络将基于图像的深度图转换为假激光雷达(pseudo-LiDAR)表示的方法,从而使得使用便宜的单 ocular 或立体成像数据进行 3D 物体检测时的精度在 KITTI 数据集上大幅提高到了 22% 到 74%。
- CVPR利用互补的几何模型进行运动分割
本文介绍了一种结合多种模型的多视角谱聚类框架,旨在解决 fundamental matrix 在运动分割中的缺陷,通过测试运动分割数据集,我们证明了这一方法在实际应用中的有效性。
- 基于点云的实时三维目标检测复合 YOLO 算法
使用激光雷达基于点云数据构建一个能够实时 3D 检测物体的深度学习算法,该算法使用了 Euler-Region-Proposal Network (E-RPN) 技术,确保了高准确性和高效率。该算法在 KITTI 基准测试中表现出色。
- 稀疏不变卷积神经网络
本文提出了一种用于处理稀疏数据的卷积神经网络架构,采用了一种稀疏卷积层,能够在深度上采样中取得优异的实验效果,作者构建了一个新的基准数据集 KITTI benchmark 进行了验证。
- 光流和下一帧预测的混合学习,提升野外场景的光流表现
本研究使用自监督学习辅助提高 CNN-based 光流估计在实际情境中的性能,在合成和真实场景下混合训练神经网络并采用样本多变量多任务结构,以预测 next-flow 代替当前光流估计,并取得了较好的性能,实验结果表明总体改善了在实际 KI - 使用立体图像生成三维物体建议,实现准确的物体分类检测
本文利用立体图像对 3D 目标进行检测,通过能量函数优化,使用 CNN 进行目标检测和姿态估计,实现在 KITTI 测试中的最佳表现,并应用 LIDAR 信息进一步优化检测结果。