本文提出了一种结合基于模型的强化学习和目标识别的框架,在离线学习和在线推理阶段分别使用 tabular Q-learning 和三种推理度量,以解决目标识别中需要手动设计、在线计算等问题,从而在标准评估环境中实现了最先进的性能,同时在嘈杂环境中也表现出了优异的性能。
Feb, 2022
本文探讨了使用深度学习的深度神经网络在目标预测方面的性能,证明了该方法在解决各种领域的意图识别和目标预测中具有更好的准确性和时效性。
Nov, 2019
本文提出了一种新的学习规划的方法,使用深度神经网络学习 “广义反应策略”(GRP),以映射问题实例和状态到动作,并用于自动学习启发式函数,通过对两个困难的规划问题领域的广泛实验,我们展示了使用我们的方法可以简化决策制定的复杂性和减少人类干预。
Aug, 2017
本研究旨在使机器人能够学习如何按照自然语言指示序列化其动作以执行任务,通过人类伙伴的成功演示。为了达到这个目的,我们引入了一种新颖的神经符号模型 GoalNet,它能够从人类演示和语言任务描述中推断目标谓词的上下文和任务依赖关系,并结合学习和规划以提高在多阶段任务中的决策能力。通过在一个表示语言变化的基准数据集上进行测试,我们证明了 GoalNet 在任务完成率上比现有基于规则的方法有了显著改进(51%)。
May, 2022
对话式目标识别框架(Dialogue for Goal Recognition)通过询问关于噪声传感器数据和次优人类行动的澄清问题,使机器人能够纠正其对人类进展的信念,评估了 D4GR 在厨房和堆积领域的性能,结果显示 D4GR 框架在目标准确性方面比 HTN 高出 1%,在计划准确性方面比 HTN 高出 4-2%,比始终询问的预测模型在目标识别和计划识别方面表现更好,且比基线少问了 68% 的问题,文章还在厨房领域展示了一个真实世界机器人情景,验证了 D4GR 在现实环境中改进的计划和目标识别能力。
Oct, 2023
本文提出一种基于规划的计划识别方法,能够在线识别目标以及适用于连续空间,使用两个启发式决策点和连续环境的启发式策略来提高运行时效率。
Sep, 2017
本研究提出一种新型的基于两层分层强化学习的目标驱动任务解决方法,使用 Goals Relational Graph 优化部分可观察的目标导向任务,例如目标驱动视觉导航,实验结果显示该方法在新环境和新目标上表现出卓越的泛化性能。
Mar, 2021
通过图神经网络和自回归策略分解,构建了一个深度强化学习框架,在多样化场景下表现出了出色的竞争能力和卓越的零 - shot 泛化能力.
Sep, 2020
本文研究将目标识别扩展到具有完整可观察性和非确定性的计划领域模型中,重点是在使用线性时间逻辑(LTLf)和纯过去线性时间逻辑(PLTLf)表达的有限痕迹上识别目标。我们开发了第一种能够识别此类设置中目标的方法,并使用六个计划领域模型上的不同 LTLf 和 PLTLf 目标进行评估,实验结果表明我们的方法在不同的识别设置中识别时间上延长的目标是准确的。
Jun, 2023
通过使用新型的 Goal-guided Transformer-enabled reinforcement learning 方法,将目标状态作为场景编码器的输入来引导场景表示与目标信息相耦合,从而有效实现自主导航。该方法具有比其他现有基线更高的数据效率、性能、鲁棒性和从仿真到真实世界的泛化能力。
Jan, 2023