夜间深度感知的可学习分差中心
本文提出了一种名为 LDFNet 的新型解决方案,通过融合网络来综合利用亮度,深度和颜色信息,以提高 RGB-D 语义分割任务的性能,实验表明其潜力和适用性
Sep, 2018
通过提出域分离网络,使用白天 - 黑夜图像对进行自监督深度估计, 使用生成对抗网络产生黑夜图片并结合正交性和相似性损失, 实现消除视差差异并获得更好的深度估计, 在 Oxford RobotCar 数据集上证明取得了领先深度估计结果。
Aug, 2021
本研究提出了一项通过交叉域相关性蒸馏的新颖域适应框架,称为 CCDistill,旨在充分利用两个图像之间的不变性,从而弥补夜间图像标签缺乏的不足,并实现了夜间语义分割的最先进性能。
May, 2022
该论文提出了一种基于卷积神经网络的方法,通过预测包含被前景遮挡区域信息的分层深度图像和前景分离掩模来合成场景和填补遮挡的空白,用于虚拟现实和减弱现实领域的单幅图像的新视点合成。
Jul, 2018
本文提出了一种名为 DiCo 学习方法的算法,通过可学习的物理先验即颜色不变性和利用对比学习将监控场景分为前景和背景,从而实现了对夜间监控场景进行高保真度翻译,同时也贡献了一个名为 NightSuR 的监控数据集。
Jul, 2023
我们的研究介绍了一种名为 LightDiff 的领域定制框架,该框架旨在增强自动驾驶应用中低光照图像的质量,通过使用多条件控制扩散模型并运用增强学习来引导扩散训练过程,从而在夜间条件下显著提高多个先进的三维检测器的性能并实现高视觉质量分数。
Apr, 2024
本文提出了一种自监督的夜间单目深度估计方法,不使用夜间图像进行训练,而是利用日间图像作为稳定的自监督信号,并应用物理先验来弥补昼夜差异,通过对昼夜数据分布的补偿,实现高效的单阶段自监督训练。实验结果表明,与现有方法相比,我们的方法在具有挑战性的 nuScenes-Night 和 RobotCar-Night 数据集上取得了领先的深度估计结果。
Apr, 2024
通过引入新颖的亮度和色度双分支网络 (LCDBNet),将低光图像增强分为亮度调整和色度恢复两个子任务,并使用多级小波分解学习细节敏感的特征,与其他先进算法相比,在多个参考和非参考质量评估器上取得了卓越性能。
Jul, 2023
本研究提出了一种新的本地卷积神经网络 (D4LCN),该网络通过学习基于图像深度映射的过滤器及其响应域,克服了传统 2D 卷积的局限性,缩小了图像表达和 3D 点云之间的差距,显著提高了 3D 物体检测的性能。
Dec, 2019
使用 Reti-Diff 方法,结合 Retinex 的知识和像素重构技术,以实现光照恢复和图像修复的高效率和准确性。
Nov, 2023