面向任务的对话与上下文学习
本研究旨在研究大型语言模型在多轮任务和与外部数据库交互方面的能力,发现在显式信仰状态跟踪方面,它们表现不如专门的任务特定模型,但是如果给出正确的插槽值,它们表现出将对话引导到成功结局的能力,并且在有真实信仰状态分布或域内示例的情况下,这种能力得到了改进。
Apr, 2023
本文介绍一种基于神经网络的端到端可训练的目标导向对话系统,以及一种新的数据收集方法,该方法基于一种新型的管道式 Wizard-of-Oz 框架。该方法可用于开发对话系统,帮助用户在餐厅搜索领域自然地交流并完成任务。
Apr, 2016
为了推动自动化任务导向对话系统的评估,本研究提出了一种基于预训练语言模型的新型用户模拟器,并通过上下文学习来生成具有鲁棒性和语言多样性的输出,以模拟人类对话行为。通过与现有对话系统交互,并收集人机交互数据集,验证了该用户模拟器在单一意图对话目标方面的表现与人类相似。
Sep, 2023
本文探讨了任务导向对话系统的最新研究进展和挑战,特别在三个关键领域进行了深入讨论:提高数据效率、模拟多回合动态以优化任务完成性能,以及将领域本体知识与对话模型集成。此外,还评估了最近的对话进展和一些常用的语料库。我们相信,这虽然不是一个完整的调查,但它仍然可以为未来任务导向对话系统的研究提供启示。
Mar, 2020
本研究提出了一种基于大型语言模型的用户模拟方法来优化面向任务的对话系统,这种方法通过在用户目标和有限对话示例的基础上产生多样化的话语来消除手工规则定义或广泛注释数据的需要,并对用户模拟器和对话系统之间的相互作用进行了误差分析,提供了改进的有价值见解。
Jun, 2023
通过将目标为导向的对话形式化为部分可观测的马尔可夫决策过程,并将语言模型解释为动态和策略的表示,我们提出了一种简单有效的方法,即任务重新标记,以目标感知的方式微调语言模型,从而显著提高了任务性能,达到了人类水平的任务表现。我们还引入了一些训练策略,以更好地聚焦于手头的任务。我们使用 AirDialogue 在实际的航班预订任务上评估了我们的方法 Context-Aware Language Models(CALM),在任务成功率方面,CALM 的表现优于现有技术方法 7%。
Apr, 2022
在第二语言学习中,基于情景的对话实践对于语言学习者实现口语流利至关重要,本文提出了基于情境的对话模型,通过在大型语言模型(LLMs)上进行微调,旨在结合开放式对话的吸引力和基于情景任务的集中练习。利用 LLMs 的泛化能力,我们证明了我们的情境对话模型在训练话题和未遇到的话题上都有效,为支持广泛的会话主题提供了有希望的解决方案。此外,对话系统领域的研究仍缺乏可靠的自动评估指标,引发人工评估作为黄金标准(Smith 等,2022)的问题,而且通常成本较高。为了解决现有评估方法的局限性,我们提出了一种新颖的自动评估方法,利用经过微调的 LLMs 来高效而有效地评估情境对话模型的性能。
Mar, 2024
本文提出了一种基于交替任务导向的社交对话框架,该框架使用强化学习算法训练策略,以维持长时间的会话连贯性和一致性,使系统能够在任务和非任务内容之间实现平滑的过渡。实验表明,将社交对话内容与任务对话相结合的系统比纯任务导向的系统具有更好的任务成功率和更高的用户参与度。
Mar, 2017
利用 SyncTOD 改进了与任务有关的对话系统,通过在有限的数据情况下训练具有辅助模型和启示的大型语言模型,实现了在低数据设置中与 LLM 基准模型和 SoTA 模型相比的卓越性能。
May, 2024
本文介绍了一个新的基于 Dialogue Action 的 Tree-structured TaskFlow 架构来构建基于任务的聊天机器人,能够自动构建任务流并有效减轻开发人员负担,实验结果证明其能够解决先前任务导向式对话系统所面临的难以建立本体、可控性和可解释性不足以及大量数据标注需求等问题。
May, 2022