- 交互式 KBQA:大型语言模型的知识库问答多轮交互
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少 - 自动逻辑形式提高表格到文本生成的准确性
给定一个表格和内容的选择,TlT 首先生成逻辑形式(LFs),然后生成文本陈述,我们首次展示了自动的 LFs 如何提高质量,与不使用 LFs 的类似系统相比,其忠实度提高了 30 个点,我们的实验可以量化高度事实正确性的剩余挑战,内容的自动 - ACL基于大型语言模型的自然语言生成从逻辑形式的重新排序研究
通过提出一种新颖的生成和重新排序的方法,本研究强调大型语言模型在自然语言生成中的出色能力,并解决了从逻辑形式(LFs)生成自然语言时遇到的一些问题,该方法能够提高生成输出的语义一致性和流畅性,经过多项实验验证了其有效性。
- ACL数学故事问题的全球模型
本文提出了一个基于图形的语义形式化方法 MathWorld,用于对数学问题进行世界建模,以进一步提高自然语言处理模型的推理和世界建模能力,并且基于该方法,成功生成了新问题并验证了其在其他方面的应用。
- ACL知识库问答的少样本上下文学习
提出了 KB-BINDER,该方法利用 Codex 等大型语言模型生成逻辑形式作为问题的草案,并通过 BM25 得分匹配进行知识库组合,从而能够在统一框架下处理不同 KBQA 数据集中的问题,同时利用 few-shot in-context - DecAF:针对知识库问答的答案和逻辑形式联合解码
本文提出了一种基于简单的自由文本检索而非依赖工具实现的实体链接的新框架 DecAF,旨在检索答案,解决了生成的逻辑形式可能出现的语法和语义错误的非执行问题,并获得了 WebQSP、FreebaseQA 和 GrailQA 数据集上的最新业绩 - ACLRnG-KBQA: 基于生成增强的迭代排名用于知识库问答
RnG-KBQA 是一种排名和生成相结合的知识库问答方法,使用对比排名和生成模型来解决一些已有 KBQA 方法中面临的泛化和覆盖问题。实验结果表明,我们的方法在 GrailQA 和 WebQSP 数据集上获得了最新的最高表现,在没有预先训练 - EMNLPLogic2Text: 从逻辑形式生成高保真自然语言
本文旨在从逻辑形式出发,探讨基于结构化数据的自然语言生成,在介绍新数据集的同时,实验了多个生成模型并分析了它们的表现。
- EMNLP查找并调整:一种一次性的语义解析器
本文提出了一种语义解析器,通过适应已见过的语句的逻辑形式而不是从头开始生成逻辑形式来学习解析未知语句的一般策略,同时提出了一种数据生成策略来构建不同领域的语句 - 逻辑形式对,结果显示相较于基准测试,单次解析的改善高达 68.8%。
- 一种基于预备知识库的常识推理教授预训练模型的初步方法
通过利用 ConceptNet 中的结构化知识,构造逻辑形式并生成常识性逻辑推理的多项选择题进行训练,我们提出了一种简单而有效的方法来教授预训练模型常识性推理,实验结果表明,这种训练可以使预训练模型在需要常识性推理的任务上表现稳定提升,特别 - EMNLP不改写,检测!用于语义解析的快速有效数据收集
本文针对自然语言和逻辑形式之间的映射、基于众包的数据收集方式存在的问题进行了深入分析,提出了一种结合模型和众包技术的数据收集方法,以减轻众包方法带来的偏差,实验结果表明,该方法对于自然语言和逻辑形式解析的准确度相对更高。
- ACL双向学习的语义解析
本文提出了一种使用双重学习算法的语义解析框架,通过与逻辑形式的查询之间的博弈,使语义解析器充分利用数据从而达到更好的性能。实验结果表明,该方法在 ATIS 数据集上取得了最新的最好性能,并在 Overnight 数据集上取得了有竞争力的性能 - ACL从文本和实体的图形表示中生成逻辑形式
本文提出了一种使用图神经网络和解码器复制机制相结合的方法来生成有实体的逻辑表达式,该方法不需要预训练即可在多个任务上达到与当前最先进方法竞争的效果,并且当与 BERT 预训练结合使用时,优于现有方法。
- AAAIQuaRel:回答关于定性关系问题的数据集和模型
本文介绍了 QuaRel 数据集、适用于此类问题的简单灵活的概念框架、逻辑表达式以及用于此任务的两个新模型:第一个模型(称为 QuaSP+)在 QuaRel 上显着优于现有工具,第二个模型(QuaSP + Zero)展现了零样本能力。
- 可执行的神经语义解析器的学习
本文介绍了一种神经语义解析器,可以将自然语言表达式映射到逻辑形式,以在特定任务环境中执行,如知识库或数据库,生成响应。解析器使用基于转换的方法生成具有树形结构的逻辑形式,结合由逻辑语言定义的通用树生成算法和领域一般性操作。解析器的生成过程由 - 半结构化表格问答的神经多步推理
本文研究使用深度学习技术回答多步推理问题的方法,该方法基于自然语言问句生成机器可理解的逻辑形式,使用字符和单词 CNN 同时嵌入逻辑形式和问句,并使用神经评分函数检索问题的最可能逻辑形式,取得 38.7% 的最佳性能。
- ACL从指称中推断逻辑形式
本文提出了一种方法,使用动态规划来表示一组一致的逻辑形式,在生成虚构世界并进行众包标注的基础上,对这些一致的逻辑形式进行过滤,从而提高了基于句子语义分析的问题回答覆盖率。
- ACL通过模型投影获得更简化的上下文依赖逻辑形式
本文探讨了从话语到语义的上下文相关映射的学习问题,通过将全模型拆分为操作于逻辑形式等价类的简化模型来解决大规模逻辑表达式的挑战,研究并开发了一种新的从左到右的语义解析器,收集了三个上下文相关语义分析数据集。
- ACL通过神经注意力机制实现从语言到逻辑形式的转换
本研究提出了一种基于注意力增强的编码器 - 解码器模型的通用方法,旨在消除传统方法所需的高质量词汇表、手工构建的模板和语言特征等问题,并可在不同领域和意义表示之间进行易于调整的转化,实验结果表明,该方法在不使用手工特征的情况下表现出了较强的