移动机器人操作的空间动作地图
本研究旨在通过将行为演示与环境属性相结合,使用 egocentric 相机,通过学习和预测行动地图,自动估计大型场景中的功能。同时,我们展示了行动地图的潜在应用,通过与活动检测结合,实现定位等应用。
May, 2016
本研究提出通过盲辅助代理训练学习场景的可操作表示,用于导航决策,并且经实验证明该学习表示方式在处理复杂环境及从模拟到真实场景的转换时具有很好的鲁棒性。
Jun, 2023
我们提出了一种新颖的导航特定的视觉表示学习方法,通过对比代理的自我中心视图和语义地图(Ego$^2$-Map),将地图中的紧凑且丰富的信息转移到代理的自我中心表示中,从而实现室内导航。我们的实验结果表明,采用我们学习到的表示的代理在目标导航中优于最近的视觉预训练方法,并且我们的表示显著改善了连续环境下的视觉和语言导航,在高级和低级行动空间上均取得了 47%的 SR 和 41%的 SPL 的最新最佳结果。
Jul, 2023
本文提出了一种基于自监督学习的模块化方法,该方法将传统的几何规划与学习空间场景表示相结合,以实现对动态对象和语义约束进行自主探索和导航。在基于 VizDoom 的仿真环境中得到了验证。
Jan, 2020
使用学习方法的视觉对象导航是移动机器人的关键任务之一,本文介绍了一种在与室内环境进行混合体互动过程中形成的场景语义地图的新表示方法,该方法基于神经网络通过反向或正向图像序列上的预测融合损失值的反向传播来调整分割模型的权重。我们将此表示方法实现到一种名为 SkillTron 的完整导航方法中,该方法可以根据强化学习和基于地图的经典规划方法从端到端策略中选择机器人技能。所提出的方法能够为机器人探索制定中间目标和对象导航制定最终目标,我们在 Habitat 环境中对所提出的方法进行了大量实验,在导航质量指标方面表现出明显的优势,与现有技术方法相比。所开发的代码和使用的自定义数据集可以在 github.com/AIRI-Institute/skill-fusion 上公开获取。
Nov, 2023
该研究采用增强学习的方法,通过深度空间自编码器从摄像头图像中直接学习状态表征,以实现对环境进行特征点提取和控制的闭环控制,展示了 PR2 机器人在推动自由玩具方块、使用铲子拿起一袋米和在不同位置将绳环悬挂在钩子上等任务中自动学习控制的成功案例。
Sep, 2015
本文提出了一种基于空间推理和 RL 框架的学习方法,通过想象视觉目标并选择适当的行动来完成任务,使用单一外部奖励信号和内部动机来学习,该方法在两个仿真 3D 环境中,进行了验证,并在处理物体排列任务时,优于两个扁平化架构和一个分层架构。
Jan, 2020
研究使用 Transformer 建立和训练机器人决策的空间表示,提出 Spatial Language Attention Policies (SLAP) 方法,使用三维标记作为输入表示进行训练,能够快速训练或微调机器人感知动作策略,并在真实环境中实现 80% 的成功率。
Apr, 2023
本研究提出了 VLMaps,一种将 3D 物理世界重建与预训练的视觉语言特征直接融合的空间地图表示,其能够通过大型语言模型将自然语言命令直接转化为空间导航目标。VLMaps 能够在不需要额外标注数据的情况下自主构建,并且可以与多种类型的机器人共享,能够进行导航的同时生成新的障碍物地图。实验表明,VLMaps 可以支持人类语言含义更丰富的导航指令。
Oct, 2022