DialPort 工具
本文介绍了一种新的口语对话门户,与多个系统进行连接,并通过多个平台进行易于整合的分布式多模式多代理原型对话框架的介绍,其中包括终端对话系统和知识 API。 到目前为止, DialPort 门户已成功连接到剑桥大学的多域口语对话系统,NOAA 天气 API 和 Yelp API。
Jun, 2016
介绍 DialCrowd 2.0,以提高使用众包获取训练、微调和评估对话系统高质量数据的开发者对任务的呈现和与工人交流的有效性,并指导改进人类智能任务。
Jul, 2022
通过引入实时对话模拟器 DialSim,可以对最新的对话代理进行评估并分析它们的局限性,为未来的对话人工智能领域的改进提供有价值的见解。
Jun, 2024
本文提出了第一个基于中国社会文化的社交感知对话语料库 - SocialDial,使用 ChatGPT 生成了 4,870 段数据,并评估了使用 BERT 和 RoBERTa 等预训练模型的数据集。
Apr, 2023
本文介绍了一种用于收集大型语言模型生成对话的框架,用来收集 MathDial 数据集,这个数据集由约 1.5k 个多步骤数学词问题的辅导对话组成,并展示了该数据集具有丰富的教学特性,可以用于调整语言模型以成为更有效的辅导员,并强调了需要解决研究共同体的挑战。
May, 2023
本研究提供了一个新的对话数据集 CookDial,该数据集在任务导向的对话系统中将过程知识理解与复杂代理决策相结合。为了应对任务导向的对话系统中的三个挑战性子任务,并针对每个任务开发了一个神经基准模型,并在 CookDial 数据集上进行了评估。
Jun, 2022
提出了 CGoDial 多领域目标导向对话评估新挑战性和综合性中文基准,包括三个使用不同知识来源的数据集(基于插槽的对话、基于流的对话和基于检索的对话),实验设置中考虑了训练集和测试集的不同组合,其中包括使用真实会话数据或通过众包添加口语特征来填补学术基准和口语场景之间的差距。
Nov, 2022
WEBDial 是一个对话框架,它采用 RDF 三元组而非槽值对的图形形式进行语义表示,具有应用广泛性和可扩展性,适用于简单到复杂的应用。
Jan, 2024
我们提出了一个新的基准系统 ComperDial,用于为开放领域对话系统的训练和评估提供测评度量标准。ComperDial 包括来自 99 个对话代理的 1,485 个对话中的 10,395 个对话转折的人工评分响应,除了单个对话转折的评分外,也包含对整个对话进行人工注释的评分,我们利用 ComperDial 开发了一种新的自动评估度量标准 CPDScore,实验证明 CPDScore 与人类判断更相关。我们将 ComperDial 和 CPDScore 发布给社区,以加速开放领域对话系统自动评估度量标准的开发。
Jun, 2024
doc2dial 是一种以文档为基础的目标导向的对话数据集,包含来自四个领域超过 480 个文档的约 4800 个带注释的对话,通过引入多重对话建模任务和基线方法来评估数据集的多功能性。
Nov, 2020