Dec, 2023
BOTH2Hands: 从文本提示和身体动力学推断三维手部姿态
BOTH2Hands: Inferring 3D Hands from Both Text Prompts and Body Dynamics
TL;DR提出了用于生成双手动作的新型多模态数据集BOTH57M,包括准确的人体和手部动作跟踪、手指级别的手部标注和身体描述。使用两个并行的身体到手部和文本到手部扩散模型,通过交叉注意力变换器实现动作融合,从混合的身体和文本条件中生成令人信服的双手动作。将数据集和源代码提供给社区进行未来研究。