Dec, 2023

BOTH2Hands: 从文本提示和身体动力学推断三维手部姿态

TL;DR提出了用于生成双手动作的新型多模态数据集 BOTH57M,包括准确的人体和手部动作跟踪、手指级别的手部标注和身体描述。使用两个并行的身体到手部和文本到手部扩散模型,通过交叉注意力变换器实现动作融合,从混合的身体和文本条件中生成令人信服的双手动作。将数据集和源代码提供给社区进行未来研究。