关键词real-world interaction
搜索结果 - 3
- 从人类视频中构建结构化世界模型
我们提出了一种方法,通过仅利用许多不同设置的少量实际交互轨迹,使机器人能够有效地学习操纵技能,并由此建立了一个基于人的视频的结构化行为空间,从而使不同的机器人能够在复杂环境下学习各种操纵技能。
- 持续面部表情识别:基准测试
本文提出了 Continual Facial Expression Recognition(ConFER)基准测试,评估了不同的 Continual Learning(CL)方法在面部表情识别任务中的性能,表明 CL 技术在不同的学习设置下 - 动作条件下的触觉预测:滑动预测案例研究
本研究提出了两种新型的数据驱动的行动条件触觉预测模型,用于预测真实世界中机器人交互任务期间的触觉信号,并使用我们的新颖触觉数据集对这些模型进行了比较,结果显示我们的模型在定性、定量和滑动预测得分方面都具有优越性。