- PeLiCal: 通过穿透线进行有限共可见 RGB-D 相机的无目标外部标定
RGB-D 相机在机器人感知中至关重要,由于其能够生成带有深度数据的图像。然而,它们的有限视野经常需要多个相机来覆盖更大的区域。在多相机 RGB-D 设置中,目标通常是减少相机重叠,以尽可能少的相机进行空间覆盖。这篇研究提出了一种新的基于线 - CVPRGeoAuxNet:面向多传感器点云的通用三维表示学习
使用几何 - 体素辅助学习的方法,通过提供对多传感器点云的附加解释,使得体素表示可以获取点级几何信息,并支持体素骨干在多传感器点云上更好的泛化能力。我们的方法在联合多传感器数据集上表现出色,超越了其他模型,并在每个单一数据集上与现有的专家方 - DART: 深度增强准确实时背景抠图
利用 RGB-Depth (RGB-D) 相机提供的丰富深度信息,实时改善背景抠图性能,使其具备更高的准确性和处理速度。
- RFTrans: 借助透明物体的折射流推断进行表面法线估计与操作
该研究介绍了一种名为 RFTrans 的基于 RGB-D 的透明物体表面法线估计和操作方法,利用折射流作为中间表示,有效解决了 RGB-D 相机在透明物体几何测量方面的问题,并可用于实现直接的仿真到实际应用的转化。实验结果表明,通过合成数据 - 透明桌面场景重建:通过单眼深度补全优化的极线引导光流
使用廉价的 RGB-D 相机对透明物体进行重建是机器人感知中的持久挑战,由于 RGB 领域中视图不一致以及单视图中不准确的深度读数。我们提出了一个专为移动平台量身定制的透明物体重建两阶段流程:在第一阶段,利用现成的单目物体分割和深度补全网络 - 使用直方图滤波器的单目相机进行三维番茄定位
通过使用直方图滤波器(贝叶斯离散滤波器)来评估番茄在番茄植物中的位置,本研究针对农业中的任务,如水果监控或收割,需要感知物体的空间位置。通过模拟实验和实验室条件下的测试,该算法在模拟实验中的平均绝对误差小于 10 毫米,在实验室条件下的测试 - 利用单个 ToF 相机实现 RGB-D 级别的分割性能
本研究使用红外和深度图像进行语义分割,通过多任务学习框架以深度特定卷积融合来自单个 ToF 相机的 IR 和深度模态,在汽车分割数据集上,我们展示了我们的方法与更昂贵的 RGB-D 方法的竞争力。
- 面向康复的智能助行器中基于深度学习的人体运动解码方法
本文提出了一种使用 RGB-D 摄像头的无接触方法,使用基于深度学习的算法来处理下肢 RGB-D 视频序列,以早期识别 / 检测人类动作,从而成功解码了人类运动和需求,使得智能步行器在康复中发挥更大作用。
- 基于注意力层次多模态融合的高分辨率深度图像成像
本文提出了一种基于注意力机制多模态融合的层次结构深度图超分辨率网络,可以有效地从低分辨率深度图和高分辨率 RGB 图像中提取并组合有价值的特征以实现超分辨率重建。
- 模态补偿网络:用于动作识别的跨模态自适应
本文提出一种 Modality Compensation Network(MCN)用于 RGB-D 摄像机采集的视频中的人类动作识别。该网络通过深度 CNN 和 LSTM 网络构建,使用骨骼作为辅助模态来提取源模态的更具有区分性的特征,并通 - 实时可扩展的密集 Surfel 地图
本文提出一种新颖的密集 Surfel Mapping 系统,采用稀疏 SLAM 系统估计相机姿态,并将强度图像和深度图像融合成全局一致模型,具有运行时效率高、内存效率高、融合时间 O (1) 等优点,可用于建立从房间尺度到城市尺度的场景,经 - CVPRHOnnotate:手部和物体姿态三维注释方法
提出了一种用于注释手操作对象图像的 3D 姿态方法,以及使用该方法创建的数据集并开发了一种基于 RGB 图像的手姿态预测方法。
- RGB-D 目标检测与语义分割用于杂乱环境中的自主操作
通过利用深度融合技术和深度学习的物体检测和语义分割算法,我们成功地解决了在复杂场景中感知目标物体的问题,并在 Amazon Picking Challenge2016 和紧急响应场景数据集上进行了验证。
- RGB-D 物体识别的循环卷积融合
本文提出了一种称为循环卷积融合(RCFusion)的新型 RGB-D 物体识别端到端架构,能够通过组合互补的 RGB 和深度信息表示不同抽象层次的信息来生成紧凑且高度可区分的多模态特征,并在两个流行数据集上的实验中,优于现有的最先进方法。
- RGB-D 相机的鲁棒本质和外参校准
本论文提出了一种基于新型两个组件误差模型的,人性化,可靠且准确的校准框架,能够很容易地估计一般颜色深度传感器的内部和外部参数,该方法相对于其他现有系统具有更高的校准精度,已经在 ROS 机器人框架中实现。