BiTT: 从单张图像中双向重建互动的双手纹理
该论文提出了一种使用单个 RGB 相机捕捉人手骨骼姿势和三维表面几何形状的实时方法,并考虑到了人手间的近距离交互情况,该方法通过多任务 CNN 回归多种信息,包括分割、对 3D 手模型的密集匹配、2D 关键点位置,以及新提出的手内相对深度和手间距离图。该方法已在 RGB 两只手追踪和三维重建方面实验验证,并且在量化和定性上优于现有的非针对两只手交互设计的基于 RGB 的方法,甚至与基于深度的实时方法相媲美。
Jun, 2021
该研究提出了 Re:InterHand 数据集,通过使用先进的手部重光网络和准确跟踪的两只手的三维姿势,实现了多样和逼真的图像外观和多样和大规模的地面真实(GT)三维姿势,在现有的三维互动手数据集的基础上进行了对比,并展示了其益处。
Oct, 2023
我们提出了 HiFiHR,一种高保真度的手部重建方法,利用基于学习框架的单一图像的渲染和比较,能够生成视觉上逼真准确的三维手部网格,并恢复真实的纹理。我们的方法通过使用预定义纹理资产的参数化手部模型,并在训练过程中建立渲染图像和输入图像之间的纹理重建一致性,实现了优越的纹理重建结果。此外,通过在一个注释数据集上对网络进行预训练,我们运用自监督、弱监督和全监督等多种程度的监督方式,并讨论了学习到的高保真度纹理在增强手势和形状估计中的不同水平的贡献。在包括 FreiHAND 和 HO-3D 的公共基准测试上的实验证实,我们的方法在纹理重建质量方面优于最先进的手部重建方法,同时在姿势和形状估计方面保持可比的准确性。我们的代码可从此 https URL 获取。
Aug, 2023
本文通过引入一个可学习的模型 BiHand,使用一种新颖的双向设计来进行 3D 手部估计和网格恢复,该模型可以在多项评估实验中展现出高准确度,对比现有的研究成果具有一定的优越性。
Aug, 2020
提出了首个从单目事件摄像机中跟踪两只快速移动和互动的手的三维跟踪框架,通过新颖的半监督特征注意机制解决左右手歧义并整合相交损失来修复手的碰撞,推出了新的大规模数据集 Ev2Hands-S 和真实事件流与真实三维标注的基准数据集 Ev2Hands-R,并在强光条件下对真实数据具有更高的三维重建精度。
Dec, 2023
提出了用于生成双手动作的新型多模态数据集 BOTH57M,包括准确的人体和手部动作跟踪、手指级别的手部标注和身体描述。使用两个并行的身体到手部和文本到手部扩散模型,通过交叉注意力变换器实现动作融合,从混合的身体和文本条件中生成令人信服的双手动作。将数据集和源代码提供给社区进行未来研究。
Dec, 2023
本文提出了一个分解迭代框架来实现像素对齐的手部重建,同时有效地建模手部之间的空间关系,利用图卷积网络和变压器在 3D 联合特征空间中进行手部内部和交互信息交互,并通过在两个特征空间中进行多个交替增强来实现精确和稳健的相互作用手部重建。 与所有现有的两只手重建方法相比,我们的方法在 InterHand2.6M 数据集上的表现都有了很大的提高。同时,我们的方法展现了对野外图像的强大的泛化能力。
Feb, 2023
我们提出了 Implicit Two Hands (Im2Hands),这是第一个用于表示两只交互手的神经隐含表示方法。与现有的两手重建方法不同,Im2Hands 可以生成高度与图像一致的两只手的细粒度几何图形,同时解决了形状复杂性和交互背景带来的问题。我们的实验结果表明,与相关方法相比,Im2Hands 在两手重建方面取得了最先进的结果。
Feb, 2023
通过 4DHands 方法,从单目输入中恢复互动手部网格及其相对运动,处理了自由手图像输入和两只手的位置关系的限制,并通过新颖的分词和特征融合策略提出了一种基于 Transformer 的架构。
May, 2024
本论文提出 DIGIT 方法,通过将每个像素的语义部分分割和视觉特征融合形成卷积层,实现从单目图像中估算两只相互交互手的三维姿势,试验表明该方法在 InterHand2.6M 数据集上取得了最新的最佳性能。
Jul, 2021