Mar, 2017

从视频中学习社交可供性语法:将人类交互转移到人机交互

TL;DR本文介绍了一种从 RGB-D 视频中学习社交能力语法的空间时间 AND-OR 图(ST-AOG)的通用框架,并将语法传递给人形机器人,以实现人机交互的实时运动推理。通过对基于吉布斯采样的弱监督语法学习的研究,我们通过构造自动化层次互动的表示形式,同时考虑双方的长期联合子任务和个体代理的短期原子行动。基于具有丰富人际互动实例的新 RGB-D 视频数据集,我们的实验的 Baxter 模拟,人类评价和真实 Baxter 测试表明,该模型能够从有限的训练数据中成功地在看不见的情境中生成人类化的行为,并胜过了基线。