语义 RGB-D 图像合成
本文提出一种从多个 RGB-D 视图中进行对象类语义分割的新方法,使用深度学习训练神经网络进行预测,同时借助于 RGB-D 的 SLAM 获取摄像机轨迹,实现多视图一致性训练和测试。实验结果表明,与单视图基准线相比,深度特征池化和多视角融合可以在 NYUDv2 数据集上实现单视图语义分割和多视图语义融合的最新性能。
Mar, 2017
该论文介绍了两种方法来利用多通道输入和无监督域自适应算法来提高机器人对真实图片的语义分割结果,其中一种是基于深度图像的融合方法,另一种是基于深度图像的多任务学习方法,并创建了相应的基准测试。
Dec, 2018
研究如何使用单个生成模型生成多模式图像输出,并使用 StyleGAN3 架构,通过获取每种模式的质量鉴别器和跨模式一致性鉴别器来解决图像一致性问题,并在 Stanford2D3D 数据集上展示了实际和一致的 RGB、深度和法线图像的生成。
Jul, 2023
本文提出了一种自适应景观识别方法,该方法使用 RGB 和深度图像之间的自监督转换,以解决多模态数据集之间的领域转移问题,并证明其在不同相机采集的数据之间具有很强的泛化能力。
Mar, 2021
本文提出了一种有效的编码器 - 解码器模型和基于注意力的融合模块,以集成 RGB-Depth 图像的特征,从而提高语义分割的精度和计算效率。实验结果表明,该模型在计算成本和模型大小方面大大超越了现有的最先进模型,并且在准确性方面具有良好的性能。
Dec, 2019
本文提出一种使用伪深度测量的多模态 RGB-D 分类方法,通过多传感器融合方法和最新的域不变单目深度估计技术,克服了单模态 RGB 图像分类易受空间外观变化以及季节、天气、照明等域变化干扰导致精度下降的问题,并通过公共 NCLT 数据集进行跨域场景实验,证明了所提出的分类框架的有效性。
May, 2023
本研究提出了一种合成数据生成方法,结合小规模真实数据集,通过生成的合成场景数据和深度信息,训练出在物体识别、姿态估计和图像分割等方面表现优越的机器人抓取算法。
Jan, 2024
本篇论文提出了一种使用合成 RGB 和深度图像数据实现表面外目标实例分割的新方法,该方法能够学习非真实感 RGB-D 数据,并在机器人抓取任务中表现出色。
Jul, 2019
使用域随机化生成合成的 RGB-D 数据集,用于训练多模式实例分割模型,旨在实现颜色不可知的手定位,以应对杂乱的工业环境。使用多模态输入,包括颜色和深度信息,可以提高模型预测的准确性,并且该方法已经实现了比现有最先进数据集训练出来的模型具有更好的精度和概率检测质量。
Apr, 2023
该研究提出了一种基于 RGBD-GAN 的新型生成模型,可以从 2D 图像中实现无监督的 3D 表示学习,并能通过相机参数进行图像生成和深度图像生成,无需 3D 注释,通过实验证明其对各种生成器体系结构都具有普适性。
Sep, 2019