本文探讨了将自然语言应用于机器人校正的方式,阐述了从自然语言句子到代价函数变换的映射方法,以及该方法如何通过多种方式对机器人进行校正,进而解决规划任务失败的问题,该方法已在模拟环境和真实环境中得到了验证。
Apr, 2022
本文探讨了人工智能在提供个性化代码改正和生成反馈方面的潜力,根据两个真实作业的学生提交进行了调查,结果显示 73% 的提交正确识别,并且在这些情况中,GPT-3.5 还成功生成了有效且高质量的反馈。
Oct, 2023
本论文提出了一种基于语言纠正的潜在行为框架(LILAC),旨在解决当前指令跟随机器人缺乏适应性和学习效率低的问题,通过在执行过程中在线纳入和适应自然语言纠正(“向右”,或 “不,向书”),从而实现对丰富的操纵领域的探索和高精度的操作,提高了任务完成率和用户体验。
Jan, 2023
通过 Distillation and Retrieval of Online Corrections (DROC) 这个基于大型语言模型(LLM)的系统,我们展示了一种能够回应任意形式的语言反馈、从纠正中提取通用知识以及基于文本和视觉相似性检索相关的先前经验来提高在新环境中表现的方法。DROC 能够回应一系列在线语言纠正,解决高级任务计划和低级技能元素的失败,并证明在新的任务或对象实例中,DROC 能够有效地提取在线纠正序列中的相关信息并检索该知识。与直接生成机器人代码的 LLM 相比,DROC 只需要一半的纠正次数,并且在两轮迭代后几乎不需要纠正,从而提升了性能。
Nov, 2023
通过 Graph Convolutional Network 框架,从用户姿势序列中学习关节运动的关系,能够对个人的自我康复锻炼和体育锻炼中出现的错误进行准确的识别和纠正。
Aug, 2022
我们提出了一种自动为入门编程问题提供反馈的新方法,该方法利用参考实现的任务和由可能制造的错误组成的错误模型。
Apr, 2012
提出了一种利用强化学习中的技能发现方法来辅助教授机动控制任务,并通过混合合成和用户研究证明使用技能辅助教学方法能提高学生绩效 40%,个性化教学可进一步提高 25%。
Nov, 2022
通过语言反馈不断改进高层策略,使机器人在复杂的、需要长程规划的任务中表现得更加出色,无需额外的远程操作。
Mar, 2024
本文介绍了一种控制生成文本的框架 InstructCTG,通过自然语言描述和约束条件的演示,将各种内在约束条件融入预训练语言模型中,以达到对生成文本的控制和优化。
Apr, 2023
本文探讨了使用零样本和少量样本设置,以 GPT-3 为基础进行语法错误修正任务的提示式方法的性能和可控性,并发现给定适当的任务说明和示例时,GPT-3 能够实现控制性能,显着增强学习过程。
May, 2023