使用依赖图进行问题分解
本研究提出了问题分解意义表示(QDMR)来解决自然语言问题分解步骤的计算问题,并通过众包管道进行了标注。利用 QDMR 改进了 HotpotQA 数据集的开放领域问题回答,并将其转换成伪 SQL 语言,在语义分析应用中减轻注释难度。通过 Break 训练序列到序列模型,并表明其性能优于几种自然基线的算法。
Jan, 2020
本文提出了一种基于抽象意义表征的问题分解方法,通过将多跳问题分解成简单的子问题并按顺序回答它们,实现了可解释的推理过程。实验结果表明,这种方法在可解释的推理方面具有竞争力,并且由 QDAMR 生成的子问题形式良好,优于现有的基于问题分解的多跳 QA 方法。
Jun, 2022
本研究提出了一种弱监督方法来训练文本到 SQL 解析器,利用 QDMR 结构自动合成 SQL 查询来代替 NL-SQL 注释,结果表明弱监督模型表现与有注释的 NL-SQL 数据训练模型相当,免除 SQL 注释。
Dec, 2021
本文介绍语义分析中的挑战,并使用序列到序列模型加上注意力实现了 QDMR 形式,其中只使用词性标注作为对句子中单词的表示,从而使训练简单快速且避免维度灾难和过拟合,同时还演示了如何使用其他模型(如 CopyNet 模型或递归神经网络模型)来增强语义运算符预测。
Jan, 2023
本文提出了一种基于问题生成的新型多跳问答方法,通过精心设计端到端的 QG 模块,在上下文理解中提出内在逻辑子问题,从而继承了 QD 方法的可解释性并表现出较高的性能。实验证明,我们提出的 QG 模块是有效的,在流畅性、一致性和多样性方面优于 QD 方法,并获得了人工评估的定量可解释性。
Mar, 2022
通过引入 “分解和查询”(D&Q) 框架,使得大规模语言模型在回答问题时能够避免幻觉,通过引导模型思考并利用外部知识,同时限制其思考范围在可靠信息内,从而有效减轻了幻觉的风险。实验证实了 D&Q 的有效性:在我们的 ChitChatQA 数据集上,D&Q 在 67%的情况下不输给 ChatGPT;在 HotPotQA 的仅问题设置下,D&Q 获得了 59.6%的 F1 得分。我们的代码可在此 https URL 找到。
Nov, 2023
本论文研究了使用神经机器翻译范式进行问题解析的应用,采用序列到序列模型来学习 SPARQL 图查询语言及其组合中的图形模式。通过模板构建问题和查询之间的对齐情况,探讨半监督学习方法代替问题 - 答案对诱导程序,并且借助自然语言生成的新进展扩展语言表达的覆盖范围。
Jun, 2018
该论文研究了使用问答的方式表示语义关系,并从三个任务的角度分析了如何最好地利用 seq2seq 预训练语言模型的威力。最终提出了一个综合文本信息的模型,并发布了具有实用性的 QASem 分析工具。
May, 2022
本文针对现有神经依存分析模型中,autoregressive 和 non-autoregressive 模式的缺陷,提出了一种 semi-autoregressive 模型来提高句法分析的准确性。该模型在多种语言的实验中体现出较好的性能表现。
Jun, 2023