学习将上下文相关的句子映射到可执行的形式查询
本文介绍了一种新的语义解析设置,使用户能够使用自然语言问题和图形用户界面内的操作查询系统。我们设计了一个基于 LSTM 的编码器 - 解码器架构,通过复制机制和多级输入和先前输出的注意力来建模上下文依赖性。使用策略梯度训练该架构可进一步提高性能,在人工数据上达到了 88.7% 的序列级准确度,在实际数据上达到了 74.8%。
May, 2019
本文提出了一种历史语义图增强问答模型(HSGE),能够有效地建模会话历史中的长程语义依赖关系,同时保持低计算成本。实验结果表明,它在所有问题类型上平均优于现有基线。
Jun, 2023
本文探讨了从话语到语义的上下文相关映射的学习问题,通过将全模型拆分为操作于逻辑形式等价类的简化模型来解决大规模逻辑表达式的挑战,研究并开发了一种新的从左到右的语义解析器,收集了三个上下文相关语义分析数据集。
Jun, 2016
本研究提出了两个对话建模任务,旨在辅助多轮对话语义解析。结果表明,在上下文总结和明确建模每个轮次的语义变化方面,可以极大提高多轮语义解析的性能。
Dec, 2021
本研究提出了一种基于数据库架构图编码器的上下文相关文本到 SQL 任务模型,该模型使用历史用户输入的编码器和数据库架构项的历史信息,采用门控机制加权不同词汇的重要性,取得 SParC 数据集和 CoSQL 数据集上的最新最佳结果,并证明了该模型的实用性。
Nov, 2020
该研究关注如何将视觉内容整合到对话 AI 系统中,提出了一种基于视觉上下文的任务,利用在线教育视频数据集自动训练一个多模态视觉 - 语音预测模型,能够优于基于文本输入的基准模型,并在多个 VideoQA 基准测试中获得最先进的表现.
Dec, 2020
本论文提出了一种适用于面向任务的对话系统的语义表示形式,该表示形式可以表示诸如共参照和上下文传递等概念,实现了对话过程中的全面理解。此外,更提出了一种新的 Seq2Seq 模型用于基于会话的解析,并在 ATIS、SNIPS、TOP 和 DSTC2 等数据集上获得了更好或相当的性能。
Sep, 2020
本文探讨了一种简单而有效的以解耦编码器解码器为基础的架构来将外部语境整合到语言模型中,从而提高参数效率、可解释性和模块化;研究表明,这种架构在自回归语言模型和开放领域问答任务中表现出竞争力,并进行了具体分析。同时,我们还探讨了增强检索模型的计算含义。
Oct, 2022