弱而深地监督的遮挡推理参数化路面布局
研究了一个新的问题,即从复杂的室外道路场景的透视视图中估计遮挡推理的语义场景布局,提出了一种卷积神经网络方法,根据前景物体(如汽车或行人)周围的信息来预测场景布局的遮挡部分,直接预测遮挡区域的深度和语义能更好地转换成俯视图,模型的训练不需要昂贵或主观的人工标注。
Mar, 2018
该研究提出了一种无监督学习方法,从单眼正视图像生成语义鸟瞰地图,以在自动驾驶的各种决策任务中提供强大的遮挡推理能力,其使用了 1% 的标注数据和无额外标记数据,在 KITTI-360 和 nuScenes 数据集上表现与现有最先进的方法相当。
May, 2024
本文提出了一种基于车载摄像头图像的道路布局推断模型,同时构建了一个路况数据集,可以将导航地图的元数据与 Google 街景图像匹配以提供标签,并利用深度卷积网络训练该模型,结果表明该方法可用于提升基础设施安全性。
Nov, 2016
本文提出了一种利用几何信息通过参数化深度分布建模来进行图像特征转换的方法,通过将 2D 图像特征提升到自车定义的三维空间,并根据深度导出的三维空间占用情况将三维特征体积聚合到鸟瞰视图中进行特征转换,以解决自动驾驶中图像特征转换的瓶颈问题。进一步,在语义分割中提出了一种可靠的可见性感知评估度量,通过考虑该度量可以减轻幻觉问题,并在 nuScenes 数据集上的目标检测和语义分割实验中验证了方法的优越性。
Jul, 2023
本文提出了一种新颖的半监督框架,用于通过利用未标记的图像在训练过程中提高视觉鸟瞰(BEV)语义分割的性能,包括使用一致性损失约束模型在语义预测和 BEV 特征上,以及一种名为联合旋转的新颖且有效的数据增强方法,在保持前视图像与 BEV 语义分割之间的几何关系的同时扩充数据集。对 nuScenes 和 Argoverse 数据集进行的大量实验证明了我们的半监督框架可以有效提高预测准确性。据我们所知,这是第一项利用未标记数据改进视觉 BEV 语义分割性能的工作,代码将公开提供。
Aug, 2023
本研究中,我们利用深度卷积神经网络架构在 2D 图像和 3D 空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
该研究提出一种基于远程监督的道路分割方法,只需要图像级标注,可以自动生成弱像素级道路掩模,使用全卷积神经网络,达到了全监督方法 93.8% 的性能,并显著减少了标注工作量。
Aug, 2017
本文提出了一种语义感知变换的方法,将仪表板摄像机视图中的检测结果映射到场景的更广泛、俯视的占用图中,通过大量的合成数据和深度神经网络的训练实现,结果表明该模型能够在真实世界的数据上进行泛化。
Jun, 2017
本研究提出了一种自我监督的方法,可以利用来自前方视图的单个单目图像,生成 Bird's-Eye-View(BEV)语义地图,用于自动驾驶。该方法包括两种自我监督模式:隐式监督和显式监督。实验证明,这种自我监督方法在使用较少的直接监督的情况下可以达到与全监督方法相当的效果。
Feb, 2023