通过常识提示进行神经符号程序规划
本文提出了 PlaSma,一种利用小型语言模型赋予程序化知识和(反事实的)规划能力的新方法,并介绍了计划的符号化程序知识蒸馏和推理时间算法以及一个新的任务,即对计划进行修订以应对反事实情况的 “反事实规划”,并展示了在原始和反事实情况下,规模比大的教师模型(770M-11B 参数)小几个数量级的模型可以达到甚至超越它们的能力。
May, 2023
本研究旨在使机器人能够学习如何按照自然语言指示序列化其动作以执行任务,通过人类伙伴的成功演示。为了达到这个目的,我们引入了一种新颖的神经符号模型 GoalNet,它能够从人类演示和语言任务描述中推断目标谓词的上下文和任务依赖关系,并结合学习和规划以提高在多阶段任务中的决策能力。通过在一个表示语言变化的基准数据集上进行测试,我们证明了 GoalNet 在任务完成率上比现有基于规则的方法有了显著改进(51%)。
May, 2022
本文提出了一种新的过程规划公式,通过贝叶斯推论和基于模型的模仿学习,建模人类行为,从而在实际的指导视频中实现了它,证明了我们的方法可以实现达到指定目标的最先进性能的同时,学习到的上下文信息以潜在空间的形式表现出有趣的特征。
Oct, 2021
在本文中,我们提出了一个使用语言模型进行多步逻辑推理的新型系统,该系统将显式计划纳入其推理过程中,从而通过向前看到它们的未来效果,能够在每一步上做出更明智的推理决策。在我们的实验中,我们的完整系统明显优于其他竞争系统,在多项选择题回答任务中,我们的系统表现与 GPT-3-davinci 相当,尽管只有约 15B 的参数。我们进行了几项削减研究,以证明显式计划在系统性能中起着重要作用。
Mar, 2023
本文提出了一种名为自然语言计划(NLP)的基准测试,由包含新颖任务的 Brick World、基于 NLVR 的操作和自然语言导航组成,着重研究 LLMs 在需要理解自然语言描述的虚拟空间环境并进行相应文本操作的复杂计划任务中的表现,发现常规的 ChatGPT 等 LLMs 缺乏复杂计划的能力,因此提出了一种适用于 LLMs 的新方法 CoS,可以更好地表示符号空间表示方法,并在三个计划任务中显著提高了 ChatGPT 的性能。
May, 2023
本文提出了一种基于提示的策略,使用前置错误信息从 LLMs 中提取可执行计划,以设计智能化的实体代理,并在 VirtualHome 仿真环境中对该方法进行了评估。
Nov, 2022
机器学习中的自然编程通过结合基于程序的学习和分层规划,通过使用语言提示来指导规划提案的概率分布,从而实现了从不同用户和环境中学习并快速适应和解决更复杂任务的目标分解与复杂任务的解决。
Oct, 2023
本文提出了一种将因果规划与神经语言模型统一起来的故事情节生成方法,该方法利用从大型语言模型中提取的常识知识以递归反向链接的方式扩展故事情节,并通过自动化评估证明相对于其他强基线方法它能生成更具连贯性的情节。
Dec, 2022
这篇研究论文探索了大型语言模型在用户指令理解和决策方面的潜力,并提出了一种新的任务,即主动性代理规划。通过建立一个新的基准数据集和提出一个多代理框架,研究者验证了所提出框架的有效性。
Jun, 2024