通过学习任务语法来实现人类行为预测
该论文提出了一种敌对生成语法模型,可以显式地捕捉时间依赖关系和多个未来活动的预测能力,并通过选择多个生成规则来有效地模拟许多可能的未来,并在多个数据集上表现出更好的表现。
Aug, 2020
对话式目标识别框架(Dialogue for Goal Recognition)通过询问关于噪声传感器数据和次优人类行动的澄清问题,使机器人能够纠正其对人类进展的信念,评估了 D4GR 在厨房和堆积领域的性能,结果显示 D4GR 框架在目标准确性方面比 HTN 高出 1%,在计划准确性方面比 HTN 高出 4-2%,比始终询问的预测模型在目标识别和计划识别方面表现更好,且比基线少问了 68% 的问题,文章还在厨房领域展示了一个真实世界机器人情景,验证了 D4GR 在现实环境中改进的计划和目标识别能力。
Oct, 2023
本研究通过将命令与层级规划框架中所有可用的任务或子任务联系起来,实现了一种能够在多个抽象层级上解释语言的模型。该方法提高了命令的准确性和机器人的响应速度,使机器人可以高效地在不同的任务抽象层次上进行规划。
Apr, 2017
本文提出了一种新的方法来从部分观察到的 RGB-D 视频中预测未来的人类活动,使用随机语法模型来捕捉事件的组成结构,作为一个空间时间 And-Or 图 (ST-AOG),未来的子活动通过 Earley 解析算法预测,我们通过广泛的实验验证了我们模型在语义事件标记和未来活动预测方面的有效性。
Aug, 2017
通过引入有效的活动语法,本文提出了一种新颖的语法归纳算法,可以从动作序列数据中提取强大的无上下文语法,并开发了一种高效的广义解析器,根据归纳的语法和递归规则将帧级概率分布转化为可靠的动作序列。实验结果表明,我们的方法在两个标准基准评估 Breakfast 和 50 Salads 上在性能和可解释性方面显著提高了时序动作分割。
Dec, 2023
本文提出了一种新的不考虑活动标签的短期和长期人体姿势预测方法,使用一种新的循环神经网络模型 —— 三角棱镜循环神经网络,该模型通过编码不同时间尺度的时间依赖性来捕获潜在的分层结构,经在 Human 3.6M 和 Penn Action 数据集上进行了广泛的实验,证明了本方法在数量和质量上均优于基线和最先进的方法。
Oct, 2018
本篇论文提出了一种行动预测模型,受人类神经结构的启发,在预测未来视觉和时间表现方面,能够预测合理的未来行动,并证明使用视觉和时间语义的场景表示结合递归生成对抗网络 (GAN) 框架可以实现未来表现的表示综合,该模型在多个数据集上优于当前最先进的方法。
Dec, 2019
本研究提出了一种基于 Transformer 的方法来处理人类语言指令和多视角场景观察,以提高机器人的精准操作,并在 RLBench 基准测试中成功实现 74 项任务,还表现出对未曾见过变化的任务的良好泛化性能。
Sep, 2022