大规模知识库对话问答的多任务学习
本文介绍了使用自然语言处理技术的语义解析器,将用户的自然语言问题转化为有形式定义的查询语句,通过大规模知识图谱实现。作者提供了一个数据集,其中,用户问题采用 Sparql 语言解析,并对执行结果对系统回答进行注释。通过两种不同的语义解析方法,我们提出了挑战:如何处理大规模词汇,如何建模对话语境,如何处理多实体查询语句,并实现对新问题进行泛化。作者希望我们的数据集能够为开发会话式语义解析器提供有效的测试平台。本文的数据集和模型已经发布,详情请见链接。
Jan, 2023
评估了没有在此任务上进行明确预训练的大型语言模型的性能,并通过一系列实验在广泛的基准数据集上比较了具有不同提示技术和不同大小的模型,并确定了生成输出中的常见问题类型。结果表明,大型语言模型能够从对话中生成图查询,并通过少样本提示和微调技术实现显著提升,特别是对于展现较低零样本性能的较小模型。
Jan, 2024
本综述探讨了基于知识库的问题回答(KBQA)的两个独特挑战,并综述了现有 KBQA 方法的解决方法,其中建议通过深度学习领域的语义分析研究成果,解决当前 KBQA 研究遇到的瓶颈,特别是在预训练语言模型的时代。
Sep, 2022
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024
通过在不同领域的语言中利用结构规律,并在多个知识库中共享信息来训练语义解析器的序列到序列模型,同时在解码时提供域的编码,可以显著提高解析准确性,从而实现了针对 Overnight 数据集(包含八个领域)的最新性能,将模型参数的数量降低了 7 倍。
Feb, 2017
本文提出了一个任务,即 Complex Sequential QA,它结合了回答简单事实性问题和通过一系列有逻辑的问答匹配进行会话来进行复杂推理,本文也介绍了关于这个任务所需数据集,以及目前现有的模型在处理实际场景中还存在的不足。
Jan, 2018
本文提出了一种使用多任务学习方法训练神经会话模型的方式来解决根据具体发言人训练缺乏数据、建立基于角色的会话代理的问题。实验证明该方法显著提高了基线模型的质量,生成更准确地捕捉发言者特征和讲话风格的响应,并且该方法算法简单易实现,不依赖于代表特定个体发言者的大量数据。
Oct, 2017
本文使用多任务学习方法和多视角注意力机制,同时处理答案选择和知识库问答问题,并通过在不同视角学习多视角注意力来提高两个任务的性能。
Dec, 2018
本研究中,我们提出使用门控图神经网络来编码语义解析的图形结构,以解决学习复杂语义解析向量表示的问题。该方法在两个数据集上均优于不显式建模结构的基线模型,并通过误差分析成功处理复杂语义解析。
Aug, 2018
本文提出一种知识感知型的语义解析模型,通过整合不同类型的知识,包括语法知识、专家知识和外部资源知识,提高了对表格的对话语义解析性能。实验结果表明,该模型优于现有最先进的方法,还证明了各种知识的有效性。
Sep, 2018