卫星图像新的立体基准数据集
本研究创建了一份包含超过 1700 个成对高分辨率遥感卫星图像的 WHU-Stereo 数据集,以促进深度学习网络的立体匹配训练和测试,并探究其在遥感应用中的潜力。实验证明,该数据集的性能可与现有的立体匹配数据集可比,并且深度学习模型的性能要比手工设计的 SGM 算法更高。
Jun, 2022
我们提出了一个新颖的高分辨率、充满挑战性的立体数据集,并给出了密集准确的视差地面真值标注。该数据集独特之处在于存在一些具有镜面反射和透明性质的表面,这是当前立体网络失败的主要原因。我们的获取方法采用了一个新颖的深度时空立体框架,可以实现子像素精度的简单准确标注。我们释放了总共 419 个样品,收集自 64 个不同的场景并标注了密集的地面真值视差。每个样本包括一个高分辨率成对图像 (12 Mpx),以及一个不对称的成对图像 (左边:12 Mpx,右边:1.1 Mpx)。此外,我们提供了手动注释的材质分割掩模和 15K 未标记样本。我们根据我们的数据集评估了最先进的深度网络,强调了它们在解决立体视觉中的开放挑战方面的局限性,并为未来的研究提供了一些线索。
Jun, 2022
利用双目摄像机的传感器融合提高室外图像的对象分割,通过几何信息的利用,可以区分重叠的同类或异类物体,并抑制虚假检测,该方法的融合过程基于面罩评分,采用伪激光雷达和基于图像的表示进行 2D、2.5D 和 3D ROI 上的面罩回归。通过使用具有更高分辨率、更长基线和焦距的 High-Quality Driving Stereo(HQDS)数据集,我们的性能达到了最新的技术水平。
Jun, 2020
从 LiDAR 和图像直接生成地面实况视差图以产生大量且多样化的数据集,并通过 LiDAR 与图像间的配准细化方法来避免精度损失和处理遮挡,从而实现了在不同数据集中评估 11 种密集匹配方法,其中 GANet 在相同的训练和测试数据上表现最佳,而 PSMNet 在不同数据集上表现稳健,并提出了在有限数据集上进行训练的最佳策略。
Feb, 2024
本文提出了一种处理多视图卫星图像生成 3D 数字表面模型的自动化流程,其中包括自动地地理参考和基于匹配生成高质量密集点云。通过学习样本 LiDAR 数据的关键配置,我们根据结果的接近程度对图像对进行排名,并使用自适应 3D 中值滤波器融合多个深度图。我们证明了提出的自适应中值滤波器通常比普通中值滤波器产生更好的结果,在最佳情况下达到了 0.36 米 RMSE 的精度提高。结果和分析被详细介绍。
May, 2019
本文介绍了一种包含近千个三维对象模型及超过 84 万个现实世界的 RGB 和深度图像数据集,旨在填补现有研究中缺乏的三维多视图重建的真实数据基准。该数据集通过半自动方式实现相机位置与物体姿态的精准标注,为形状重建、物体姿态估计、形状检索等 3D 应用提供了可能。数据集已开放,包含注释工具和评估基准源代码。
Mar, 2022
该论文通过使用立体和多视角的高分辨率卫星遥感数据,探索了在建筑物建模、冰川动态跟踪和湖泊藻类监测等领域解决遥感应用问题的新方法,展示了卫星摄影测量应用在城市和环境挑战中的广泛潜力,并展示了提高应用立体和多视角的高分辨率卫星遥感数据的创新分析方法。
Apr, 2024
本研究旨在解决颜色图像和多光谱图像之间分辨率差异大的问题,提出了一种深度学习架构,并利用自监督学习以及 RGB-RGB 匹配任务的知识来实现跨模态匹配。通过在室内环境下拍摄 13 个场景的图像对,并标注了 34 个具有高分辨率标签的图像对,通过实验证明该方法在使用深度学习进行该任务时性能表现良好。
Jun, 2022
利用 Copernicus 计划(ESA)的 Sentinel 卫星和 Google Earth Engine 的云计算设施,我们提供一个包括 180,662 个样本的数据集,该数据集由双极化合成孔径雷达(SAR)图像,多光谱 Sentinel-2 图像和 MODIS 地表覆盖映射的三元组组成,拥有 10 m 的地面采样距离,并覆盖所有有人居住的大陆和所有气象季节。期望该数据支持社区开发面向场景分类或地表映射的语义分割等常见任务的深度学习算法。
Jun, 2019