机器人操控的语义增强和动作分块的泛化和效率
Autonomous robotic systems capable of learning manipulation tasks can be transformed through Agent-Agnostic representations for Manipulation (Ag2Manip), which overcomes domain gaps, enhances generalizability, and achieves significant improvements in performance.
Apr, 2024
本文旨在通过模仿学习的角度研究如何通过扩大数据采集并建立交互灵活的学习系统来促进基于视觉的机器人操作系统向新任务的泛化,当扩展真实机器人的数据采集到 100 个不同的任务时,我们发现此系统可以实现 24 个未见过的操作任务,平均成功率为 44%。
Feb, 2022
本研究旨在解锁机器人实现多模感知的能力,以通过单次模仿学习技术普及各种真实世界技能,通过收集千万级别的真实世界接触式机器人操作记录构建的开源数据集提高任务和动作规划的性能。
Jul, 2023
我们研究如何通过大量的人类视频数据学习机器人在与未知对象交互时的多样化操作技能,采用分解方法从人类视频数据中学习人类如何完成期望任务,并将其转化为机器人的行为,从而实现零样本通用操作。
Dec, 2023
通过从人类视频中提取联系点、并借鉴人类思维方式,我们提出了 Robo-ABC 框架,在不需要任何手动注释、附加训练、部分分割、预编码知识或视角限制的情况下,使机器人能够通过检索视觉或语义上相似的对象来获得关于操作性的信息,并将其映射到新对象上,从而实现对类别之外的对象的零样本操作。在视觉操作性检索上,Robo-ABC 达到了相对于最先进的端到端操作模型的 31.6% 的显著提高,并通过现实世界的物体抓取任务实验,取得了 85.7% 的成功率,证明了其在真实世界任务中的能力。
Jan, 2024
通过重新使用大型数据集,提出在多个机器人平台上训练单一策略的关键设计决策,通过对视觉和动作空间的对齐以及对内部表示的对齐来解决机器人平台之间的领域差异,验证了该方法在不同机器人上收集的新任务数据中成功率和样本效率的显著提升。
Jul, 2023
通过开发多模态、多任务、视觉 - 语言 - 行为模型,本文提出一条路径,以增加机器人辅助手术中机器人的自治性,最终我们认为,机器人辅助手术能够从通用模型中获益,并提供三个指导性行动以增加机器人辅助手术的自治性。
Jan, 2024
该研究介绍了一个包含双臂任务和 / 或需要细致操纵的多样化对象操作数据集,数据集包括 224k 个剧集、双臂精细任务以及语言指令,并应用于 Dual-Action and Attention (DAA) 模型,该模型在真实机器人操作任务中展示了其在细致操纵方面的能力。
Jan, 2024
提出了一个基于视觉目标调节的决策转换器,命名为 RoboCat,它能够消耗多体验行为标记的视觉经验,用于机器人操作的基础模型,并展示了模型对新任务和机器人的泛化能力,并可用于生成下一轮训练集的数据。
Jun, 2023
该研究提出一种基于文本至图像转换的数据扩充方法,命名为 ROSIE,通过在现有的机器人操作数据集上应用文本引导扩充数据的方法,我们可以在新的场景和任务中实现更好的机器人操作性能和鲁棒性。
Feb, 2023