BriefGPT.xyz
Jan, 2021
文本转SQL解析器的无上下文语法预训练
GP: Context-free Grammar Pre-training for Text-to-SQL Parsers
HTML
PDF
Liang Zhao, Hexin Cao, Yunsong Zhao
TL;DR
提出了一种名为语法预训练的Text-to-SQL解析新方法,通过增加问题词后的随机值以及优化解码器部分的向量初始化,采用泛化效果更佳的非零训练损失等技术提高了模型性能,成功地应用于了跨数据库的Text-to-SQL数据集(spider),在开发集上获得了72.8%的准确性,在测试集上获得了69.8%的准确性。
Abstract
A new method for
text-to-sql parsing
,
grammar pre-training
(GP), is proposed to decode deep relations between question and
database
. First
→