基于深度和边缘信息的准确 RGB-D 指尖检测的双流卷积神经网络
本文提出了一种名为 TSBnet 的新框架,用于直接从双目图像中检测手指尖,包括共享卷积层和两个流卷积网络,进而在其中添加了测量距离的层次,这种方法的平均误差为 10.9mm,在测试集上相对于之前的方法提高了 5.9mm,达到了 35.1% 的提高。
Apr, 2018
使用两个连续应用的卷积神经网络(CNN)对手部进行定位并回归三维关节位置,进而实现在复杂环境中移动自视角 RGB-D 相机下的实时、稳健和准确的手部姿态估计。
Apr, 2017
本文提出了一种综合使用 RGB-D 图像、深度学习网络以及多层融合策略的手部姿态估计方法,模型能通过 GCN-based 解码器来恢复精细的手部 3D 网格结构,在多项公共数据集上的性能表现优于其他已有方法。
Jul, 2023
使用卷积神经网络,采用 RGB-D 架构,通过两个不同模式的 CNN 处理流程结合延迟融合网络来识别物体,同时引入多阶段训练方法以及进行数据增强方案,使得处理 RGB-D 图像更加健壮,同时在真实嘈杂环境中取得了最先进的识别结果。
Jul, 2015
本研究提出了一种层次结构的卷积神经网络架构,通过使用滑动窗口方法,使离线工作的卷积神经网络架构能够高效地在线操作,同时细化了手势检测和分类。该架构达到了 94.04%和 83.82%的离线分类准确率以及可实现良好的在线操作表现。
Jan, 2019
该论文提出了一种使用单个 RGB 相机捕捉人手骨骼姿势和三维表面几何形状的实时方法,并考虑到了人手间的近距离交互情况,该方法通过多任务 CNN 回归多种信息,包括分割、对 3D 手模型的密集匹配、2D 关键点位置,以及新提出的手内相对深度和手间距离图。该方法已在 RGB 两只手追踪和三维重建方面实验验证,并且在量化和定性上优于现有的非针对两只手交互设计的基于 RGB 的方法,甚至与基于深度的实时方法相媲美。
Jun, 2021
本文提出了一种基于 RGB 和深度视频序列的空间与时间信息互补建模方法,采用卷积二流一致投票网络(2SCVN)和 3D 深度显著性 ConvNet 流(3DDSN)的并行聚合结构,极大提高了细微运动特征的识别准确性,结果在 Chalearn IsoGD 基准测试中优于领先者 10.29%,在 RGBD-HuDaAct 数据集上取得了最佳效果(96.74%),同时进行了定量实验和定性分析。
Nov, 2016
本文提出了一种神经网络来估算单张 RGB 图像中前景人物的详细深度图,其中分离深度图为平滑基础模型和残差细节模型设计出两个分支的网络来回归它们,并利用一种新的网络层将粗深度图和表面法线融合以进一步提高最终结果。
Oct, 2019
本文提出了一种基于图形卷积神经网络的方法,从单个 RGB 图像中估算手的 3D 形状和姿态,并通过含 3D 地面真值的大规模合成数据集和深度图弱监督学习进行训练,结果表明可以对手的 3D 网格进行准确和合理的重建,并在与现有最先进方法的比较中达到了更高的 3D 姿态估计准确性。
Mar, 2019
本文提出了一种基于卷积神经网络的多阶段流水线方法,仅通过单眼红绿蓝彩色图像在众多的干扰因素下,准确分割和定位手部区域并估计 2D 和 3D 的关节点位置;采用新颖的投影算法计算相对相机坐标系的全局关节点位置,为此引入大规模合成 3D 手部姿态数据集。在 RGB-only 信息下,本文超越了以往的 3D 典型手部姿态估计基准数据集;此外,本文提供了 RGB-only 输入下首个实现双手的准确全局 3D 手部跟踪,并进行了广泛的定量和定性评估。
Jun, 2020