面向物体的机器人操作的体现学习调研
本研究介绍了一种在深度强化学习循环中嵌入面向对象视觉助力模型的方法,以学习优先选择与人类喜欢的对象区域相同的抓握策略,实现对物体的灵活抓握能力。通过40个物体的实验,表明该方法可以显著提高抓握策略效能,泛化能力较强,比普通基线方法的训练速度更快,且更能适应噪声传感器。
Sep, 2020
本文提出了一个基于 AI2-THOR 框架的物体操作框架并提出了一个名为 ArmPointNav 的新挑战任务,以扩展点导航任务到物体操作,并提供了新的挑战,包括 3D 障碍物避免、存在遮挡的物体操作以及多物体操作,并指出了 PointNav 挑战中成功的流行学习范例仍有大量改进空间。
Apr, 2021
本研究使用视觉契合技术,通过预测关键点的接触信息,提出了一种端到端的控制策略学习框架,可以实现在不同类型的操纵任务中的泛化。结果显示,我们的算法在成功率上大大优于基线算法,包括基于视觉契合和强化学习方法。
Sep, 2022
本研究针对模仿学习算法在工业高精度环境中的应用,探讨了其超参数敏感性、培训简易性、数据效率和性能等方面的缺乏研究。通过对多接触复杂双手操作任务的评估,揭示了不同算法在应对环境和超参数扰动、训练需求、性能及易用性方面的差异,为选择合适的模仿学习算法提供了实证依据。
Aug, 2024
本研究解决了机器人学习中数据集小且多样性不足的问题,提出了CrossFormer,一种基于变换器的灵活政策,能够处理任意体形的数据。通过在全球最大和最丰富的数据集上训练,结果表明该模型能够有效控制各种机器人,且性能优于专门针对特定体形的政策,为跨体学习开辟了更广阔的前景。
Aug, 2024
本研究解决了在软体物体操作中学习可推广技能的挑战,提出了一种新的GP2E行为克隆策略。关键在于提取复杂的语义特征、捕捉长时间交互以及通过双阶段微调策略减轻过拟合问题。实验证明,该方法在CVPR 2023的ManiSkill2挑战赛中获得了软体轨道的第一名,显示了其在提升Embodied AI模型泛化能力方面的潜力。
Oct, 2024
本研究聚焦于机器人操控中的赋予能力问题,提出了一种以赋予能力为中心的政策学习方法,通过在关键区域上集中和适当地定位任务框架,简化学习过程并提升泛化能力。我们的主要发现是,该方法能够在仅使用10个演示进行行为克隆的情况下,学习操控任务,并与基于图像的政策在305个演示下的泛化效果相当。
Oct, 2024
本研究解决了机器人学习中缺乏大规模领域内数据集的问题。我们提出了一种名为操作中心化表示(MCR)的框架,通过结合视觉特征和任务动态信息,显著提高了机器人操作任务的成功率。实验证明,MCR在模拟和现实任务中的性能提高超过14%和76%,展示了其在高效学习中的潜在影响。
Oct, 2024
本研究解决了机器人学习中缺乏大规模领域特定数据集的问题。提出了一种新的操作中心表示(MCR)框架,通过捕捉操作任务的视觉特征和动态信息来提高表现,实验证明MCR在多个模拟领域的任务中表现超越基线方法14.8%,并在现实世界任务中提升性能76.9%。
Oct, 2024