学习人机交互的社交意涵
本论文探讨了如何通过利用互联网视频中的人类行为,训练一个可视化驱动的视觉能力模型,以此实现机器人在现实环境中的复杂任务执行。我们将该模型与四个机器人学习范式无缝连接,并在 4 个现实世界环境、超过 10 种不同任务和 2 个机器人平台中展示了其效力。
Apr, 2023
本文介绍了一种从 RGB-D 视频中学习社交能力语法的空间时间 AND-OR 图(ST-AOG)的通用框架,并将语法传递给人形机器人,以实现人机交互的实时运动推理。通过对基于吉布斯采样的弱监督语法学习的研究,我们通过构造自动化层次互动的表示形式,同时考虑双方的长期联合子任务和个体代理的短期原子行动。基于具有丰富人际互动实例的新 RGB-D 视频数据集,我们的实验的 Baxter 模拟,人类评价和真实 Baxter 测试表明,该模型能够从有限的训练数据中成功地在看不见的情境中生成人类化的行为,并胜过了基线。
Mar, 2017
该研究旨在利用 Markov 随机场和支持向量机算法,提取描述性标签以识别人类活动和物品仿真,并应用于机器人的辅助任务中,其准确度在 120 个视频的测试中分别为 80% (物品仿真)、64%(子活动)和 75% (高级活动)。
Oct, 2012
我们提出了一种方法,通过仅利用许多不同设置的少量实际交互轨迹,使机器人能够有效地学习操纵技能,并由此建立了一个基于人的视频的结构化行为空间,从而使不同的机器人能够在复杂环境下学习各种操纵技能。
Aug, 2023
通过学习视觉契合来指导机器人探索,并使用基于 Transformer 的模型来学习 VQ-VAE 潜在嵌入空间中条件分布,从而展现模型的组合泛化能力。训练完成的契合模型可用于机器人操作策略学习中的目标抽样分布。
May, 2023
本研究使用视觉契合技术,通过预测关键点的接触信息,提出了一种端到端的控制策略学习框架,可以实现在不同类型的操纵任务中的泛化。结果显示,我们的算法在成功率上大大优于基线算法,包括基于视觉契合和强化学习方法。
Sep, 2022
提出一种从人类遥操作的游戏数据中提取自我监督的视觉管用模型,并将其与基于模型的策略学习和基于模型的强化学习相结合,以实现有效的策略学习和运动规划,从而实现在人类环境中运作的机器人的高效操作。
Mar, 2022
该研究提出了一个利用无人干预的关节行动示范学习人类用户模型的框架,以便机器人能够计算出一项与人类的合作任务相适应的鲁棒策略。该框架利用无监督学习算法将示范动作序列聚集到不同的人类类型中,并使用逆强化学习算法学习代表每种类型的奖励函数。最后,该方法得到了验证,并在实验室中演示了同一个人类与小型工业机器人配合完成任务的可能性。
May, 2014
本研究利用增强学习方法,通过自主探索实现对未经探测的三维环境的机器人智能互动,其中包括对可利用对象的发现、高效自主行动的学习以及使用基于图像的可利用区域分割模型。实验表明,基于该方法的机器人可以智能地操作新的家居环境,并为进行下游任务,如 “找刀并将其放入抽屉中”,进行了充分的准备。
Aug, 2020