基于描述的任务导向对话建模
本文探讨了任务导向对话系统的最新研究进展和挑战,特别在三个关键领域进行了深入讨论:提高数据效率、模拟多回合动态以优化任务完成性能,以及将领域本体知识与对话模型集成。此外,还评估了最近的对话进展和一些常用的语料库。我们相信,这虽然不是一个完整的调查,但它仍然可以为未来任务导向对话系统的研究提供启示。
Mar, 2020
本文提出了一种混合知识管理的任务导向对话系统,并基于结构化和非结构化知识进行了优化,相比现有的任务导向对话系统具有更强的端到端性能和更高的非结构化知识检索准确性。
May, 2021
提出了一种新颖的基于预训练语言模型的任务驱动对话状态追踪方法,利用基于模式的提示和模式描述提高了性能,适用于多个基准测试(MultiWOZ 2.2、MultiWOZ 2.1和M2M),实现了最先进的性能。
Sep, 2021
通过使用标记的对话示例,而非基于描述的自然语言,向seq2seq模型展示模式元素的语义来提供通用对话系统,并在零-shot泛化方面取得了最先进的效果。
Apr, 2022
文章提出了一种基于多任务BERT模型的对话状态跟踪器,可以同时解决意图预测、请求插槽预测和插槽填充等三个DST任务,并采用高效和简洁的对话历史和服务架构编码来提高性能。通过对SGD数据集进行的评估,结果表明该方法在计算效率明显提高的同时,大幅度超越了基线SGP-DST,并且性能表现接近于最先进的模型。
Jul, 2022
该研究针对对话系统中特定目标和本体的对话状态跟踪模型的可扩展性问题,提出了一种将对话行为融入到对话模型设计中,利用机器阅读理解预测跨域对话状态的方法,并在实验结果中表现出较高的准确度,为未来的面向任务的对话系统提供了对话状态设计的指导。
Aug, 2022
本文提出了一种面向任务的对话技术(TOD)前置训练语言模型(OPAL),采用预训练和微调相结合的方法,成功地解决了无法获得大规模任务对话数据的问题,并在CamRest676和MultiWOZ基准测试中实现了令人兴奋的提升和竞争性表现。
Sep, 2022
我们提出了AnyTOD,这是一种端到端的,零-shot的任务导向对话系统,能够处理未见过的任务,而不需要特定的培训。我们采用了一种神经符号方法,其中神经语言模型跟踪对话中发生的事件,并执行符号程序以推荐应该采取的下一个操作,从而显著降低了数据注释和模型训练的要求,并展示了在任务和领域上的强大的零-shot迁移能力。
Dec, 2022
使用树形排序的生成模型,优化模型的语法多样性和语义忠实度,使其适用更广泛的任务。将合成的数据添加到基线模型的训练集中,可以显著提高其平均联合目标准确性和模式灵敏度。
Mar, 2023
本研究解决了现有对话状态跟踪(DST)方法在适应新槽值方面的局限性,提出了一种集成领域分类和DST的零-shot开源词汇系统。通过将DST重新表述为问答任务,并采用自我精炼提示,该系统实现了比现有方法高出20%的联合目标准确率,且对LLM API的请求减少了90%。
Sep, 2024