本文提出、构建并验证了一个集成不同模块以回答两种不同查询的结构,该模型利用自然语言文本,分类并将其发送给神经问题回答推理器或自然语言解析器到 SQL,经过测试和实验,我们的系统以高精度(超过 99%)选择适当的回答方法,从而验证了模块化问题回答策略。
Feb, 2022
本研究提出了一种新的基准数据集和一种神经消息传递模型,该模型结合了关系归纳偏差,与传统循环神经网络方法相比,在联络推理和组合泛化方面性能优越。
Nov, 2018
本文研究了使用自然语言作为桥梁,通过有效访问数据库创建一个高效的文本到 SQL 模型,重点探讨了 24 个不同神经网络模型以及 11 个常用数据集的特点和局限性,最终讨论了 Text2SQL 技术在实现无缝数据查询方面的可能性。
Aug, 2022
使用大语言模型和 SQL 查询从自然语言文本中提取数据和查询,是信息检索和处理的新方向并带来了新的挑战和机遇。
Apr, 2023
通过使用单个多任务 transformer 模型,我们设计了一个统一的系统,可以迭代地检索支持事实,重新排序它们,并从所有检索的文档中预测答案,从而回答各种需要不同数量的检索步骤的开放领域问题。我们构建了一个新的基准测试 BeerQA,并证明我们的模型在现有基准测试和这个新基准测试上都表现出有竞争力的表现。
Oct, 2020
本研究针对语义解析器在零样本学习中难以正确选择新数据库常数集的问题,提出一种全局推理数据库常数集的解析器,采用图神经网络的消息传递机制,考虑问题的情境信息,软选择一部分数据库常数集,并通过训练模型根据数据库常数与问题单词的全局匹配度对解析结果排序。在面向包含复杂数据库的零样本语义解析数据集 Spider 中,我们将该方法应用于当前最先进模型,将准确率从 39.4%提高到 47.4%。
Aug, 2019
本文提出了一种基于神经信息检索和重新排名的自动问答系统,利用包含 6.3M 问题和回答对的数据库,实现了开放域问答并超越了传统的非结构化文本或图形搜索方法,并证明了基于 Transformer 模型的 (q,a) 对比仅考虑问题表示更优,该方法具有和在 BING 搜索引擎上构建的 QA 系统竞争的优点。
Mar, 2023
通过引入能够对文本段进行推理的组件、以概率性和可微分的方式执行数字和日期等符号推理的组件,提出了一种改进的神经模块网络(NMNs)模型,提高了非合成问题的预测效果,实验结果表明,该模型在 DROP 数据集上取得了显著的性能提升。
Dec, 2019
本文旨在研究如何应用预训练语言模型和 Hybrid Ranking Network (HydraNet) 方法来优化 Text-to-SQL 任务,通过将问题和一个具体的列一起以列排名和解码的形式呈现,然后通过简单的规则组装到一起。实验表明,该方法非常有效,并在 WikiSQL 数据集上实现了最佳表现。
Aug, 2020
本文研究使用深度学习技术回答多步推理问题的方法,该方法基于自然语言问句生成机器可理解的逻辑形式,使用字符和单词 CNN 同时嵌入逻辑形式和问句,并使用神经评分函数检索问题的最可能逻辑形式,取得 38.7% 的最佳性能。
Feb, 2017