MVTrans:透明物体的多视角感知
我们提出了一种透明物体深度补全的端到端网络,结合了基于单视图 RGB-D 的深度补全和多视图深度估计的优点,并引入了基于置信度估计的深度细化模块,进一步改进了恢复的深度图。在 ClearPose 和 TransCG 数据集上进行的大量实验证明,与现有方法相比,我们的方法在具有显著遮挡的复杂场景中实现了更高的准确性和鲁棒性。
May, 2024
本文介绍了 TRansPose 多光谱数据集,该数据集包括 99 种透明物体,其中 43 种家用物品、27 种可回收垃圾、29 种化学实验室用品和 12 种非透明物体,可以提供更好的透明物体视觉识别和形状信息。
Jul, 2023
提出了一种新的透明物体的深度补全方法 TranspareNet,并成功建立了几乎 15000 张 RGB-D 图像的数据集 TODD,该方法不仅能够在复杂场景下对透明物体的深度进行精确的补全,而且也能够很好地处理有关干扰和混杂问题。
Sep, 2021
该论文提出了一种基于双目视觉输入的深度神经网络,称为 KeyPose,并使用该网络从 RGB 相机标记的三维关键点预测物体姿势,即使在透明物体的情况下也能取得比现有方法更好的 3D 姿态估计表现。
Dec, 2019
本文提出了一种基于局部隐式神经表示的方法,使用射线 - 体素对捕获透明物体的深度信息,并在缺失深度数据的情况下,利用迭代式自我纠正模型和大规模合成数据集进一步完善估计,实验结果表明,这种方法在合成和真实数据上均比现有的最佳方法 ClearGrasp 表现显著优越,并将推理速度提高了 20 倍。
Apr, 2021
TransNet 是一种使用局部深度补全和表面法向量估计技术来实现透明物体类别级位姿估计的两阶段管道,能够比同类别级位姿估计方法更好的提高位姿估计的准确性。
Aug, 2022
本研究提供了一种基于深度学习网络的方法,针对普通深度传感器获取透明物体深度信息的难题,构建了一个大规模真实场景数据集,同时提出了一种深度完成网络用于输出精度更高的透明物体深度信息,并且该方法能够成功地应用于机器人对透明物体的抓取。
Feb, 2022
通过使用局部深度完成和表面法线估计,本文提出了一种名为 TransNet 的两阶段管道,用于估计透明物体的类别级姿势,该方法在大规模透明物体数据集上进行了评估,并与现有的类别级姿势估计方法进行了比较。比较结果表明,TransNet 在透明物体的姿势估计准确度方面取得了改进,并且我们利用 TransNet 构建了一个用于机器人抓取、放置和倒液的自主透明物体操作系统。
Jul, 2023
ClearGrasp 是一种基于深度学习的方法,能够从单个 RGB-D 图像中准确估计透明物体的 3D 几何形状,以应对透明度对 3D 传感器造成的困扰,其表现优于单眼深度估计基线,并可广泛适用于实际物体的抓取改善。
Oct, 2019