在 RGBDT 空间中处理序列数据
本文研究使用语义丰富的图像和深度特征进行RGB-D图像目标检测问题。我们提出了一种新的地心嵌入深度图像的方法,该方法编码了每个像素相对于地面的高度和重力角度,以及水平视差。我们证明了这种地心嵌入方法比使用原始深度图像更适用于使用卷积神经网络进行特征表示学习。最后,我们使用对象检测器的输出在现有的超像素分类框架中进行语义场景分割,并在我们研究的对象类别中实现了24%的相对改进。
Jul, 2014
本研究基于第一原理推导出新的似然函数,使用角度和光流大小的新组合来最大化关于物体真实运动的信息,开发了一种运动分割算法,比当前最先进的方法提高了很大的准确率,并在两个已建立的基准测试和一个新的伪装动物数据集上进行了对比。
Apr, 2016
提出一种新的无参数化方法,其中统一模型结合了设备多重信息线索,以处理前景分割中的深度线索。通过引入新的深度数据模型,处理不准确数据以提高前景分割,同时引入了一个新的RGBD视频数据集,为这类算法的比较提供了新的标准。结果表明,该方法可以处理多种实际情况,并在所有情况下都获得良好的结果。
Sep, 2016
SceneNet RGB-D提供了室内场景轨迹的大规模真实渲染,为场景理解和几何计算机视觉问题提供像素级完美的标签数据,以及适用于从头开始使用RGB-D输入的数据驱动的计算机视觉技术的预训练数据集,并且也提供了探索3D场景标注任务的基础。
Dec, 2016
本研究提出了一种基于深度学习的模型,用于估计连续RGB-D图像之间的场景流,可以将场景分成多个刚体运动的对象,利用编码和解码阶段,得到了像素级目标中心、运动和旋转估计,并在大规模合成和真实数据集上测试了模型性能。
Apr, 2018
本文提出了一种使用RGBD sensing的增量学习方法来进行开放式世界的语义分割,使用三维地图表示方法来标记没有语义标签的区域,实现对新的物体类别的识别及聚类。通过实验验证,该方法能够正确聚类已知和未知类别的对象,并且比现有的监督式方法具有更快的处理时间及更高的性能。
Jul, 2019
本文介绍了一种使用NVIDIA TensorRT进行优化的高效且稳健的RGB-D分割方法,该方法可作为场景分析系统的公共初始处理步骤。我们通过使用ESANet在NYUv2和SUNRGB-D室内数据集上进行评估,展示了RGB-D分割优于仅处理RGB图像的效果,并证明当网络架构精心设计时仍可实时完成。此外,我们在Cityscapes的室外数据集上进行评估,显示了我们的方法也适用于其他应用领域,并展示了我们在一个室内应用场景中的定性结果.
Nov, 2020
本研究关注的是RGB-D物体跟踪,并通过发布新的RGBD1K数据集和利用此数据集中的transformer-based RGB-D跟踪器(SPT)作为我们的基线来展示其训练的益处和可潜力以提高RGB-D跟踪的性能。
Aug, 2022
该论文提出了一种新的无需人工干预的多物体图像分割方法,该方法可以从静止图像中提取物体,但使用视频进行监督学习,其关键洞察是预测可能包含运动模式的图像区域,超越了测试时间使用运动的方法,在模拟和真实世界基准上显示出最先进的无监督目标分割性能。
Oct, 2022