基于文档支持的任务型对话系统:HLTPR@RWTH在DSTC9和DSTC10上的研究
介绍了第九届Dialog System Technology Challenge (DSTC-9),重点介绍使用端到端对话技术的四项任务,包括1. 带有非结构化知识访问的任务导向型对话建模,2. 多领域任务导向型对话,3. 对话的交互式评估,以及4. 位置交互式多模对话。讨论了每个任务的任务定义、基线和评估设置,总结了提交系统的结果,以突出该领域技术的最新趋势。
Nov, 2020
本文总结了我们在第九届对话系统技术挑战赛(DSTC 9)第一轨中的工作,我们提出了一种基于层次分类和序列嵌入的检索和生成方法,以实现针对任务导向对话中利用非结构化文本信息的回答生成。
Feb, 2021
本文总结了我们对第一个DialDoc共享任务两个子任务的参与,重点是目标导向的文档基础对话中代理响应预测任务。我们采用限制的有效跨度数据集,利用双仿射分类器模拟跨距,最后使用不同模型的集合。在第二个子任务中,我们采用级联模型,它在预测跨度而不是整个文档时进行响应预测。通过这些方法,我们在两个子任务中相比基线都获得了显着的改进。
Jun, 2021
本文介绍了我们在第十届对话系统技术挑战赛第二轨知识引导的任务导向对话建模中的提交内容。在适应ASR转录的噪声方面探索不同的方法来使得模型更加健壮,并采用噪声通道模型来适应口语交流的风格。我们的最佳系统在挑战的自动和人工评估中分别排名第一和第三。
Dec, 2021
该论文介绍了针对开放领域对话系统的交互式评估方法,为开发基于知识的响应生成模型,探索将其扩展到与真实用户的交互中提供挑战,从而介绍了从静态语料库到交互式评估的进展,以及如何最好评估开放领域对话模型的见解。
Jul, 2022
本文旨在构建一个具有鲁棒性的口语对话系统,通过引入未结构化的外部知识和采用数据构建、加权负采样、后训练以及风格转换等四种高级方法,完成了DSTC10-Track2-Task2的任务,实验表明我们的模型在客观评估中排名第7,人工评估中排名第6。
Sep, 2022
本文提出了一种模型,通过Bayes定理将其分解为两个部分,其中一个是传统的非基础回应生成模型,另一个是基于对话上下文和生成的回应重建基础文档的模型。我们提出了不同的近似解码方案,并在多个开放域和面向任务的基础对话数据集上评估我们的方法,实验表明该模型在自动事实度指标方面比基线模型更为准确。此外,我们概述了如何介绍组件之间的缩放因子以控制模型输出中的事实度和流畅性之间的权衡。最后,我们将我们的方法与最近提出的用于控制基础对话中事实度的方法CTRL进行了比较,并表明这两种方法可以结合起来实现额外的改进。
Oct, 2022
本文涉及针对与书面文本不同的口语输入而设计的任务型对话建模,以解决自动语音识别系统所引入的误差,并针对多轮对话建立了一个公共语料库,研究各种形式的语音输出的性能差距,并给出了初步分析。
Dec, 2022
该论文研究了在信息寻求对话中使用大规模语言模型(LLMs)如ChatGPT进行基于文件的响应生成。通过人工评估我们发现,ChatGPT变种虽然有可能插入不在相关片段中的信息,可能存在错觉,但评分比共享任务获胜系统和人工响应更高。
Sep, 2023
我们开发了一种新型的对话扩充模型,通过完整的对话上下文生成用户的回合,并通过语言模型的新提示设计和输出重新排序,所生成对话可直接用于训练下游对话系统,在常见的基准数据集MultiWoZ和SGD上,展示了我们的对话扩充模型生成高质量对话并使对话成功率较基准线提高多达8%。
Oct, 2023