本文提出一种基于伪激光雷达(pseudo-LiDAR)的物体三维检测方法,通过改进其立体深度估计的网络结构和损失函数,以及通过利用稀疏的廉价激光雷达传感器的测量结果来传播深度估计值,从而实现对目标的准确检测。在KITTI数据集上的实验表明,该方法相比现有方法在远处物体检测精度上有40%以上的提升。
Jun, 2019
本文提出了一种使用深度学习模型对场景的三维模型进行预测,并通过标准体积渲染技术来估算场景中任何三维位置的入射光照强度,可以在没有地面真实三维数据的情况下进行训练,可用于在真实图像中插入高反光虚拟物体的空间变化照明估算方法。
Mar, 2020
本文提出了一种新的单目深度估计框架,引入了基于先验的正则化来学习配准深度图像的分布知识以避免错误训练,并使用 Mapping-Consistent Image Enhancement module 来增强图像可视性和对比度,同时维持亮度一致性,最后使用基于统计的掩码策略调整纹理区域内删除像素数量的数量来解决在夜间场景下的问题,实验表明每个部分都是有效的,并取得了令人瞩目的成果和最新成果。
Aug, 2021
该研究通过引入新的数据合成流程来模拟真实的低照度模糊退化,提出了联合低照度增强和去模糊的大规模数据集LOL-Blur,同时提出了一种名为LEDNet的有效网络,解决了夜间摄影低照度和模糊问题。
Feb, 2022
本文提出一种用于户外场景的光照估计的深度学习方法,并通过建立一个包含HDR天空穹、基于体积渲染的光照模型和可微分的物体插入式训练框架,实现了对具有阴影的物体完全可微的插入和渲染,为自动驾驶应用提供了更真实的增强数据。
Aug, 2022
我们的研究介绍了一种名为LightDiff的领域定制框架,该框架旨在增强自动驾驶应用中低光照图像的质量,通过使用多条件控制扩散模型并运用增强学习来引导扩散训练过程,从而在夜间条件下显著提高多个先进的三维检测器的性能并实现高视觉质量分数。
Apr, 2024
本文提出了一种自监督的夜间单目深度估计方法,不使用夜间图像进行训练,而是利用日间图像作为稳定的自监督信号,并应用物理先验来弥补昼夜差异,通过对昼夜数据分布的补偿,实现高效的单阶段自监督训练。实验结果表明,与现有方法相比,我们的方法在具有挑战性的nuScenes-Night和RobotCar-Night数据集上取得了领先的深度估计结果。
提出了一种算法,专注于夜间条件下准确的自监督立体深度估计,通过使用预训练的视觉基础模型提取具有挑战性场景的泛化特征,并提出了一种有效的匹配和集成方法,同时采用了新颖的遮罩方法来过滤掉违反光度一致性假设的像素,并提出了新颖的评估指标,实验证明了该方法的鲁棒改进。
May, 2024
我们提出了一种在不同光照条件下进行深度估计的方法,该方法通过多传感器融合的方式解决了低照度区域光度学信息不足的问题。我们的方法利用丰富的合成数据首先近似了三维场景结构,并通过学习从稀疏到(粗糙的)密集深度图的映射及其预测不确定性来引导深度的精修,从而提高了稀疏深度处理的效果。我们在nuScenes数据集上展示了该方法在不同场景中的改进表现。
本研究解决了自动驾驶车辆和机器人在夜间低光照和运动模糊下的视觉感知问题,现有方法常导致较大的失真。论文提出了一种新颖的基于变换器的联合学习框架DAP-LED,利用CLIP模型自适应地学习夜间图像的降级水平,从而实现低光增强和去模糊,显著提高了暗环境下的视觉感知效果。
Sep, 2024