表达机器人无能
研究了如何将在一个环境中学到的知识传递到另一个环境中的关键问题,并通过学习人类期望机器人执行哪些任务的中间表示方法,来提高机器人学习效率,从而为人类与机器人的互动打下基础。
May, 2022
通过机器模拟对人类推导目标功能的学习过程,选择对人最具信息量的行为,以准确预测机器人在新情境下的行为,为此我们提出了两种候选的近似推断模型,并在自动驾驶领域中进行用户研究,结果表明,某些近似推断模型可以使机器人生成更好的行为示例,从而更好地使用户预测其行为,但我们还需要进一步研究人类从机器人行为示例中的推导过程。
Feb, 2017
针对智能机器人的高水平任务计划存在的问题,提出了 “计划可解释性” 和 “可预测性” 的概念,通过条件随机场模型学习标签方案并对新计划进行标签,用以提高机器人计划的可解释性和可预测性,该方法经过了人机交互和实际机器人测试并取得了较好的性能。
Nov, 2015
本文主要介绍了通过学习情感空间映射来实现机器人在情感任务中的表现,通过用户反馈的学习方式,实现深度学习每个情感的代价函数,并将其映射到情感空间上,从而可以将用户反馈用于学习所有情感,生成各种情感的轨迹并做出相应表现。本文提出的方法已在多个测试实验中得到应用和验证。
Mar, 2022
本文探讨人类与机器人的协作中,心理模型对信任与决策的影响,并通过一项在线测试发现,人们对机器人的能力和意图的估计与总体自我报告信任强相关。但要做出正确的决策,人们需要(并使用)多面向的心理模型,而不是仅仅校准总体信任水平。
Sep, 2019
ERIK 是一种表达负向动力学技术,已经在算法上和有限的用户交互场景中得到了评估。它允许自主的社交机器人在注视着用户时传达基于姿态的表达信息,并通过实验表明,ERIK 可以通过其非语言表现形式完全引导用户在执行给定任务时作出选择。
Mar, 2022
本文调查了当前大部分奖励和模仿学习方法的机器人任务表示与人类任务表示不匹配的问题,并主张应该将机器人学习任务的表示与人类对齐,以及从定义问题的数学角度出发研究机器人物理表示学习。
Feb, 2023