通过将规划器使用的一阶符号表示从编码状态空间结构的非符号输入中学习,我们解决了图像与符号之间的鸿沟,这意味着推断一个完整的一阶表示(即一般的动作模式、关系符号和对象)来解释所观察到的状态空间结构。
Sep, 2019
提出了一种无监督的体系结构来命名一阶逻辑谓词和事实,以便将图像输入编码为符号计划兼容的命题表示,通过试验表明,所得到的谓词捕捉到可解释的关系,有助于获取环境的抽象模型,并且与符号计划兼容。
Feb, 2019
本文介绍了一种自主学习的方法,通过无标注的高维真实值机器人轨迹,自动学习抽象状态和动作的可推广的基于逻辑的关系表示,形成了自动发明的类似 PDDL 的领域模型。通过确定性设置的实证结果表明,仅凭少量机器人轨迹就可以学习到强大的抽象表示,所学的关系表示包括但超越了高级动作的经典直观概念,并且学习的模型使得规划算法能够扩展到以前超出手工构思抽象的任务范围。
Feb, 2024
本文提供了一种新框架 Recplan,用于从部分观察到的原始图像轨迹中学习转换模型。通过考虑轨迹中的前面和后面的图像,我们学习原始观察的潜在状态表示,然后基于这样的表示构建转换模型。此外,我们提出了一种基于神经网络的方法,学习估计朝着给定目标观察的距离的启发式模型。基于学习的转换模型和启发式模型,我们实现了一个图像的经典规划器,并在实证中展示了我们的方法比在具有不完整观测的环境中学习视觉规划模型的最新方法更有效。
Nov, 2022
本文介绍了一种使用深度学习与经典规划相结合的无监督架构 LatPlan,通过提供一组图像对作为训练输入和一对初始和目标状态图像作为规划输入,可以使规划过程在符号潜在空间中找到计划并返回可视化的计划执行。
Apr, 2017
通过深度学习方法研究自然语言处理,通过训练紧密连接的编码器 / 解码器,在传统的指示语言环境和对比学习环境中开发了一个专用于视觉数据表示的私有语言,并且通过神经机器翻译和随机森林分类的分类层将符号表示转化为类别标签。通过两个实验,旨在进行物体识别和动作识别,研究了从真实图像中生成的草图以及从 3D 运动捕获系统生成的 2D 轨迹,通过梯度加权类激活映射(Grad-CAM)方法和 t-SNE 方法解释了学习到的符号和嵌入。
Sep, 2023
我们提出了一种新型的神经符号结构,通过从图像中学习出稳固而高效的离散状态转移模型,兼容基于启发式搜索的现代解算器,并且通过在学习过程中加入有利的先验知识降低了学习精度,并开展其对于学习符号表现的优良特质的理论探索。
Apr, 2020
提出了一种通过给定的实体层次结构和观察到的相似行为来泛化符号动作的新概念,证明在虚拟的网格化厨房环境中可以从少量观察中学习到类型泛化的动作,并且在规划过程中引入了一种即时泛化机制,能够解决包括更长序列、新实体和未预期环境行为的未见任务组合。
Aug, 2023
本文提出了一种基于强化学习和模仿学习的视觉语义计划解决方案,使用后继表示来实现跨任务的泛化,用于预测将动态环境从初始状态转换到目标状态的操作序列,在 THOR 环境中实现了近乎最优的结果。
May, 2017
该研究提出了一种基于行为细分、离散对象与效果类别的概率规则方法来进行非平凡的行为规划,并在机器人操作中实现了多步对象操作。
Dec, 2020