DTS-SQL:基于小型大语言模型的分解文本到 SQL
研究了如何将复杂的文本到 SQL 任务分解为较小的子任务,从而显著提高大型语言模型(LLMs)在推理过程中的性能,证明了将 SQL 查询分解为子问题并将这些子问题的解决方案提供给 LLMs 可以显著提高性能。在三个 LLMs 上的实验表明,此方法始终将性能提高约 10%,推动 LLMs 的准确性接近最先进水平,甚至超过用于持有 Spider 数据集的大型精调模型。
Apr, 2023
研究表明,通过任务分解可以大大提高大型语言模型在数据库理解和查询生成方面的能力,从而通过 SQL 查询回答人类问题。我们提出了一个新的框架,通过将架构划分为块来在有限的上下文中容纳更多信息,该方法的结果与 GPT-4 相当,但体积更小、速度更快并且成本更低。
Jan, 2024
我们提出了一种针对开源大型语言模型在 Text-to-SQL 任务中的上下文理解和响应连贯性问题的系统方法,包括对开源大型语言模型在 Text-to-SQL 任务中的全面评估,以及用于有效问题表示的 openprompt 策略、监督微调的新策略、步骤推理中 Chain-of-Thought 的优势探索和用于增强少样本学习的 openexample 方法。此外,我们引入了一些高效的技术,如可变长度的开发数据库架构、目标列截断和示例列截断,解决了大规模数据库中的挑战。我们的研究结果强调了对监督微调对上下文学习能力的影响进行进一步研究的必要性。值得注意的是,我们的方法显著提高了 Llama2-7B 在 BIRD-Dev 数据集上的性能,从 2.54% 提高到 41.04%,Code Llama-7B 在 BIRD-Dev 数据集上的性能甚至超过了 GPT-4(46.35%)。
May, 2024
通过构建新数据集和提出五个评估任务,全面评估不同方法在文本到 SQL 过程中的性能,揭示了大型语言模型之间的性能差异,并提出了针对每个任务的最佳上下文学习解决方案,为改进基于大型语言模型的文本到 SQL 系统的开发提供了有价值的见解。
Mar, 2024
本文对大型语言模型(LLMs)在 Text-to-SQL 任务中的应用进行了研究,提出了一种新的集成解决方案 DAIL-SQL,并通过实验证明了其在 Spider 排行榜上取得了 86.6% 的执行准确率。研究重点在于提示工程中的令牌效率和任务特定的监督微调。通过探索开源 LLMs 在 Text-to-SQL 中的潜力,以及任务特定的监督微调的优势和劣势,希望能够对 LLMs 在 Text-to-SQL 领域提供更深入的了解,并激发进一步的研究和广泛应用。
Aug, 2023
通过工作流模式方法,改善大型语言模型在文本到 SQL 任务中的上下文学习能力,提高关注力和问题解决范围,包括信息确定模块、基于问题分类的全新提示结构,以及自我纠正和主动学习模块的引入。在三个数据集上的广泛实验表明,我们的方法表现优于其他方法,显著提高了基准指标,并在 Spider 测试数据集上取得了新的最佳结果。
Feb, 2024
该研究通过使用大型语言模型(LLMs)来进行文本到 SQL 程序合成的各种方法以及相关的结果和见解,通过使用流行的 Text-to-SQL 数据集(spider)输入自然语言问题和数据库模式并生成正确的 SQL SELECT 查询。通过细调 WizardLM 的 WizardCoder-15B 模型和 fine-tuning gpt-3.5-turbo-16k(Few-shot)+ gpt-4-turbo(Zero-shot error correction)的方式,查询的执行准确率达到了较高的 82.1%。大部分错误查询可以归为七个不同的类别,这揭示了 LLM 程序合成的瑕疵以及可改进的方向。
Jan, 2024
通过对特定领域 (零售) 生成 SQL 查询的研究,使用开源大型语言模型 (LLMs) 进行微调,将自然语言转化为 SQL 查询,提高数据库的可访问性。
Dec, 2023
根据自然语言问题(文本到 SQL)生成准确的 SQL 是一个长期存在的问题,传统的文本到 SQL 系统使用人工工程和深度神经网络,而最近的大型语言模型(LLMs)已经展示出在自然语言理解方面的显著能力,因此,将 LLM-based 实现整合到文本到 SQL 研究中可以带来独特的机遇、挑战和解决方案。
Jun, 2024
本研究提出了一种基于大型语言模型的 Text-to-SQL 模型 SQL-PaLM,该模型在几种不同的任务测试中都取得了最优结果,并展示了其应用于现实场景的鲁棒性和智能能力。
May, 2023