由极少数据启动增量对话系统:对话语法的泛化能力
研究了机器学习方法处理自然语言对话中语言现象的可行性,针对此问题,研究者将实际自然语言现象加入到 Facebook AI Research 的 bAbI 对话数据集中,发现目前的一种检索模型 MemN2N 在这种自然语言数据集合上表现急剧下降,但使用增量语义解析器 DyLan 能够在此数据集合上实现 100%的语义准确性。
Sep, 2017
在这篇论文中,我们使用先前学习的动态句法语法和 CHILDES 语料库开发、训练和评估了一个概率模型,该模型用于增量生成,其中模型的输入是纯语义生成目标概念(TTR)。我们证明了该模型的输出与黄金候选项的准确匹配率为 78%,ROUGE-l 评分为 0.86。我们进一步对同一模型在生成目标在发话过程中发生变化时产生自我修复的能力进行了零次评估。自动评估显示模型能够在 85%的情况下正确生成自我修复。小规模的人工评估确认了生成的自我修复的自然性和语法性。总体而言,这些结果进一步突显了基于语法的模型的泛化能力,并为更可控和自然交互的对话型人工智能系统奠定了基础。
Aug, 2023
使用生成模型在大型对话语料库上构建开放域对话系统的任务得到了研究,这里我们扩展了分层递归编码器 - 解码器神经网络到对话领域,并证明了该模型与最先进的神经语言模型和后退 n-gram 模型有竞争力,我们进一步探讨了该方法及类似方法的局限性,再展示了如何通过从更大的问答匹配语料库和预训练的词嵌入中引导学习以提高其性能。
Jul, 2015
本文提出一种多任务基于 LSTM 的模型,用于增量检测口吃结构,可以连接到任何组件以进行增量解释,或者在产生当前话语时用于 “清理” 当前话语。我们在 Switchboard 对话行为语料库上训练了该系统,并展示了其在该数据集上的准确性。我们的模型在 SWDA 上比以前的神经网络基于增量的方法表现优异,同时采用较简单的架构。为了测试模型的泛化潜力,我们在没有任何附加训练的情况下,在 bAbI + 数据集上评估了相同的模型。这表明我们的方法具有很好的泛化潜力,并更加详细地阐明了哪些类型的口吃可能适合于领域通用处理。
Oct, 2018
我们提出了一种自我改进的方法,通过引导提示和修改的损失函数来增强适当的自动生成响应的多样性,从而成功利用自我改进机制在生成中间和最终响应上并改善了知识驱动对话生成任务的性能。
Oct, 2023
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022
该研究旨在创建一个交互式、自然语言接口,通过学习用户在模拟机器人环境中完成任务。该接口引入了一种神经语义解析系统,通过分解学习新的高层抽象:用户通过将描述新行为的高层话语分解为它可以理解的低级步骤来与系统互动。作者的方法弥合了现有方法之间的差距,并证明了现代神经系统的灵活性以及基于语法的方法具有的一次可靠泛化能力。研究还讨论了实现交互式范式的潜力的障碍。
Oct, 2020
提出了一种基于增量学习框架的任务导向对话系统(Incremental Dialogue System (IDS)),可以在不预定义用户需求的情况下进行设计,并引入不确定性估计模块和在线学习模块来评估和适应未被考虑的用户需求,最终可在未知环境下获得出色的性能。
Jun, 2019
本文提出基于联合循环卷积神经网络结构的统计语言生成器,可以在不需要语义对齐或预定义语法树的情况下,训练对话行为 - 话语对。客观指标表明,在相同的实验条件下,这种新模型优于以前的方法。人类评委的评估结果表明,它产生的不仅是高质量而且是语言上多变的话语,而且与 n-gram 和基于规则的系统相比受到更多的青睐。
Aug, 2015