Mar, 2024

适应性视觉模仿学习用于跨多样碗配置和食物类型的机器人辅助喂食

TL;DR通过将视觉感知与模仿学习相结合,我们提出了一种新颖的具有空间注意力模块的视觉模仿网络,用于机器人辅助喂食。我们的方法名为AVIL(自适应视觉模仿学习),在处理不同装碗、不同材质、尺寸、位置以及不同类型的食物,甚至在存在干扰物的多样情景时表现出可适应性和鲁棒性。我们在真实机器人上进行了实验证明了我们方法的有效性,并与一个基准模型进行了比较。结果表明,在所有情景中,我们的模型取得了比基准模型多达2.5倍的成功度量改善。值得注意的是,我们的模型仅在装有颗粒谷物的透明玻璃碗的数据上进行训练,但在其他不同类型的食物和碗配置上进行零样本测试时表现出泛化能力。