一个编码器 - 解码器框架,将自然语言翻译为数据库查询
本文研究了使用自然语言作为桥梁,通过有效访问数据库创建一个高效的文本到 SQL 模型,重点探讨了 24 个不同神经网络模型以及 11 个常用数据集的特点和局限性,最终讨论了 Text2SQL 技术在实现无缝数据查询方面的可能性。
Aug, 2022
分析神经机器翻译的性能,研究了两种模型:RNN 编码器 - 解码器和新提出的门控递归卷积神经网络,结果显示神经机器翻译在翻译较短,不含生词句子时表现相对良好,但随着句子长度和生词数的增加,其性能会迅速降低。同时发现,所提出的门控递归卷积网络能够自动学习句子的语法结构。
Sep, 2014
该论文探究了自然语言生成 SQL 查询的问题,并使用综合方法设计了三个深度神经网络,应用双向注意机制和卷积神经网络的字符级嵌入来提高结果,最终在 WikiSQL 数据集上达到了最先进的结果。
Dec, 2017
这篇研究论文介绍了一种简单有效的方法来将句法结构融入到神经注意力编码解码模型中,以实现机器翻译。文中使用了预测的源句子句法依赖树,用于生成敏感于句法周边的单词表示,以达到最佳效果。研究的实验结果表明,在英德翻译和英捷翻译方面的所有设置中,与其不考虑语法结构的版本相比,该方法均有显著的改善。
Apr, 2017
本文提出了一种名为 RNN Encoder-Decoder 的神经网络模型,该模型由两个循环神经网络(RNN)组成,它将符号序列编码成固定长度的向量表示,并将该表示解码成另一个符号序列,并通过联合训练编码器和解码器来优化目标序列的条件概率,然后将该模型生成的条件概率应用于现有的对数线性模型中,从而提高统计机器翻译系统的性能,并且该模型能够学习到一种语义和句法上有意义的语言短语表示。
Jun, 2014
提出一种基于深度神经网络 Seq2SQL 的 SQL 查询翻译模型,利用强化学习策略优化模型,并结合 WikiSQL 数据集进行模型训练,性能比注意力机制模型更好,精度从 35.9% 提高至 59.4%。
Aug, 2017
本篇论文采用八种不同的神经机器翻译模型,探讨将自然语言问题翻译成结构化查询语言 SPARQL 的方法,结果表明基于 CNN 的架构效果最佳, BLEU 分数高达 98,准确率高达 94%。
Jun, 2019
本文介绍了两种基于 Transformer 和 CNN 模型架构的预训练多语言句子编码模型,并使用基于翻译的桥接任务学习绑定表示将 16 种语言的文本嵌入到单一的语义空间中,以提高检索效率,与最先进的语义检索、翻译检索和检索问题回答模型相竞争,并在某些情况下超越了英文单语句子嵌入模型的表现水平。
Jul, 2019
本论文研究了使用神经机器翻译范式进行问题解析的应用,采用序列到序列模型来学习 SPARQL 图查询语言及其组合中的图形模式。通过模板构建问题和查询之间的对齐情况,探讨半监督学习方法代替问题 - 答案对诱导程序,并且借助自然语言生成的新进展扩展语言表达的覆盖范围。
Jun, 2018