本文介绍了一种自主学习的方法,通过无标注的高维真实值机器人轨迹,自动学习抽象状态和动作的可推广的基于逻辑的关系表示,形成了自动发明的类似 PDDL 的领域模型。通过确定性设置的实证结果表明,仅凭少量机器人轨迹就可以学习到强大的抽象表示,所学的关系表示包括但超越了高级动作的经典直观概念,并且学习的模型使得规划算法能够扩展到以前超出手工构思抽象的任务范围。
Feb, 2024
本文提出一种算法,用于通过学习特征、抽象和广义计划来解决连续机器人任务和运动规划中的困难问题。研究表明,仅使用少量示例学习的简单广义计划可以用于优化 TAMP 求解器的搜索效率。
Sep, 2021
本文将广义规划的标准公式扩展到包括关系型规划域,通过使用抽象动作进行策略生成和基于 FOND 计划器的计算。
Jan, 2018
通过将规划器使用的一阶符号表示从编码状态空间结构的非符号输入中学习,我们解决了图像与符号之间的鸿沟,这意味着推断一个完整的一阶表示(即一般的动作模式、关系符号和对象)来解释所观察到的状态空间结构。
Sep, 2019
在经典计划中,为了满足智能体的目标,目标是制定一系列行动方案。扩展规划是用于捕获和模拟不同类型的推理问题的一种表达方式。本文中,我们提出使用符号搜索进行成本最优规划,为经典计划的不同表达扩展,包括公理、状态依赖性操作成本、过度订阅计划和前 k 个计划。
Apr, 2022
本研究提出了一种新的学习规划模型的方法,其既有组合方法学习清晰的动作模板,又能够从图像空间中产生动作模板,这是结合前两种方法的优势的一步。
本文介绍了一种基于奖励稀疏性的桥梁方法,将符号行动计划和强化学习相结合,以解决在噪声条件下涉及工具使用和复杂因果依赖的对象操作问题,并成功利用了数据和知识。
May, 2019
本文介绍了一种结合自动学习和规划的方法来解决泛化计划问题,主要通过 Max SAT 表达式从已知实例的状态变迁中自动学习特征和抽象动作,并使用 fully observable 非确定性规划器生成泛化计划。实验结果展示了该方法的有效性。
Nov, 2018
我们提出了一种基于视觉的分层规划算法,利用神经符号任务规划和基于低级运动产生的联合框架,以指定目标为条件。该算法使用两级场景图形式来表示操作场景,即几何场景图和符号场景图,并使用图形神经网络来为高层任务规划和低层动作生成处理这些场景图。我们在物理模拟和现实世界中的厨房储物任务中验证了我们的方法,并证明我们的方法比标准的搜索任务和运动规划器运行速度高四个数量级。
Dec, 2020
构建具有物理表征特性的神经符号方法,以逐渐学习概括性空间概念,用于创造塔的高度等任务,并在连续学习中实现在新概念上的归纳推理能力超越现有基准线。
Apr, 2024