本研究提出了一种利用语义线索修正传统视差计算算法预测的方法,通过语义特征嵌入和语义 loss 正则化优化来提高学习视差的效果,并在 SegStereo 模型中整合了自分割中获取的语义特征和引入语义 softmax loss 以提高视差图像预测准确性,同时在无监督和有监督训练方式下都取得了业界领先的 KITTI 立体视觉 benchmark 和较为优秀的 CityScapes、FlyingThings3D 数据集上的预测结果。
Jul, 2018
该论文提出了一种基于语义分析的方法,通过比较地面图像与卫星图像的特征,结合语义分割掩模,实现无 GPS 数据的查询地理定位,并在不同视场上通过对 CVUSA 数据集进行测试表明该方法提升了性能。
Apr, 2024
提出了一种名为 Single-branch Semantic Stereo Network(S3Net)的解决方案,通过自我融合和互相融合模块创新性地将语义分割和立体匹配相结合,从而更准确地理解语义信息和视差估计。在 US3D 数据集上的比较测试证实了 S3Net 的有效性,相比现有竞争方法,我们的模型将语义分割的平均交并比(mIoU)从 61.38 提升至 67.39,将立体匹配的 D1 误差和平均端点误差(EPE)从 10.051 降低至 9.579 和从 1.439 降低至 1.403。
Jan, 2024
研究表明,语义立体匹配比独立任务能更好地了解机器人、自我导航、增强现实等领域的场景理解。本文提出了一种单一的紧凑型和轻量级架构,通过多阶段的自上而下的估算,使得在任何硬件上和任何应用中都可以获得非常快速的推理,并对特定的应用要求进行准确度和速度的权衡。
Oct, 2019
我们提出了一种生成合成图像数据的方法,用于语义分割,为其他任务提供泛化能力,并提供由无人驾驶宇宙飞船的二维单眼图像组成的原型合成图像数据集,以便进一步研究自主空间飞行器汇合问题。我们在这些合成数据上展示了强的基准结果(Sørensen-Dice 系数为 0.8723),表明训练良好性能的图像分割模型对此任务是可行的,特别是如果目标航天器及其配置已知。
Nov, 2022
本论文将最新的深度学习方法与基于视频流的半稠密 SLAM 相结合,在室内 / 室外数据集中得到了更好的 2D 语义标签识别,无需针对序列中的每一帧获得语义分割,其时间复杂度也得以合理控制。
Nov, 2016
本文研究了利用神经网络框架综合分析航空或卫星图像,并展示了其在多任务学习和模型预测不确定性方面的优势。
Nov, 2019
利用卫星派生数据产品和机载全球定位和姿态估计,我们提出了一种自动为航空器捕获的热成像生成语义分割注释的新方法。通过结合热条件细化步骤和可视化基础模型,我们的方法可以使用低分辨率的卫星土地覆盖数据产生高精度的语义分割标签,并且相比于目前用于生成 RGB 成像注释的基于大型视觉 - 语言模型的零样本语义分割方法,我们的方法在性能上实现了 70-160% 的改善。
Mar, 2024
本研究致力于解决遥感图像 open-set 场景下的语义分割技术的问题,开发出一种新的方法,并对其进行了评估,得出了与封闭集方法相同数据集相比具有竞争力的结果
Jan, 2020
本文提供了一组经过立体校正的卫星图像及其对应的地面真实位移图,以供研究者进行立体重建的进一步研究,该数据集包括来自两个源的 10 个感兴趣区域,其中 8 个来自 IARPA 的 MVS Challenge 数据集,2 个来自 CORE3D-Public 数据集。
Jul, 2019