面向对话助手的基于实践的复杂任务分割
为了与人类用户进行对话,需要设计能够进行人机交互的机器智能,因此会话建模是自然语言处理中的重要任务。一个新的机器会话模型使用了逐渐构建的句子结构和复杂度的培训方法来模拟人类学习的构建过程,其通过按照先 “短” 后 “长” 的句子对训练,最终比标准文本准备训练的模型具有更低的验证误差。
May, 2023
语音助手面临指导复杂任务的困境,阅读书面指示的方法存在局限性。本研究观察了 12 位参与者使用先进的语音助手在家烹饪,发现目前的方法导致了九个挑战,包括隐藏整体情况、提供过多信息以及无法传达信息。通过语音转化书面指示为口头交流形式,提出了八种改进方式,并展望了自然语言处理的现代进展如何帮助智能代理有效地指导用户完成复杂任务。
Jun, 2023
通过探索辅助子任务:用户意图检测和指令状态追踪,以支持响应生成,从而提高指令基础的对话系统的性能,实验结果表明它能够缓解生成错误顺序的问题,并在分析 ChatGPT 的输出时发现其仍存在错误。
May, 2023
介绍了一个训练 AI 智能体对象执行开放域、逐步指导的任务的数据集,该数据集包含 741 个逐步指令。此外,构建了一个名为 RUSS 的模型来处理此问题,并且它优于不使用 ThingTalk 直接映射指令的最新模型。
Mar, 2021
本文研究了提高生产质量的面向任务的对话系统的设计的困难,提出了使用自然语言的轻量级语义表示 —— 规范形式作为用户意图分类的替代方法,并且展现了规范形式可以很好地泛化到新的、未知的域,在零次或少次样本学习中可以轻易实现,并且可以降低开发新的任务导向的对话域的复杂性和费用。
Nov, 2022
该研究旨在创建一个交互式、自然语言接口,通过学习用户在模拟机器人环境中完成任务。该接口引入了一种神经语义解析系统,通过分解学习新的高层抽象:用户通过将描述新行为的高层话语分解为它可以理解的低级步骤来与系统互动。作者的方法弥合了现有方法之间的差距,并证明了现代神经系统的灵活性以及基于语法的方法具有的一次可靠泛化能力。研究还讨论了实现交互式范式的潜力的障碍。
Oct, 2020
本文基于 T5 文本转文本的 transformer 模型,将多任务端到端模型应用于对话推荐任务,实现了推荐相关项目和生成对话的双重目标,其中多任务学习和来自 ReDIAL 数据集的探针研究得到了应用。
May, 2023
研究通过逐步指南调整的方式,可以帮助语言模型完成指定任务,提高跨任务泛化能力。自动获得的逐步指南,结合原始指南对语言模型进行调整,可以为完成目标任务提供详细和具体的步骤。研究发现,高质量的逐步指南可以提高不同模型大小之间跨任务的泛化能力,并且步骤的顺序对此具有重要影响。
May, 2023
本文提出通过使用自然语言指令和行动轨迹演示来自动分解分层任务,以解决在稀疏奖励的强化学习设置中的复杂多任务问题,并证明人类演示有助于解决最复杂的任务,同时允许该模型再未见数据的情况下推广学习,从而使训练好的代理人具有可解释的行为。
Nov, 2020
本研究使用 Transformer 实现自然语言指令到移动用户界面动作的语义映射,并结合数据标注与合成技术,对其进行了完整的任务评估,并在 PIXELHELP 数据集上达到了 70.59% 的准确率。
May, 2020