Blar-SQL: 更快、更强、更小的 NL2SQL
研究了如何将复杂的文本到 SQL 任务分解为较小的子任务,从而显著提高大型语言模型(LLMs)在推理过程中的性能,证明了将 SQL 查询分解为子问题并将这些子问题的解决方案提供给 LLMs 可以显著提高性能。在三个 LLMs 上的实验表明,此方法始终将性能提高约 10%,推动 LLMs 的准确性接近最先进水平,甚至超过用于持有 Spider 数据集的大型精调模型。
Apr, 2023
通过将文本到 SQL 任务分解为两个较简单的任务,我们引入了一种新的两阶段微调方法,以减少对专有大型语言模型(LLMs)的依赖,从而提高开源模型的执行准确率,减轻数据隐私的忧虑。通过对两个大型跨领域数据集和两个小型 LLM 的全面评估,我们证明这种方法将开源模型的性能与专有模型相一致,执行准确率提高了 3 到 7 个百分点。
Feb, 2024
通过对特定领域 (零售) 生成 SQL 查询的研究,使用开源大型语言模型 (LLMs) 进行微调,将自然语言转化为 SQL 查询,提高数据库的可访问性。
Dec, 2023
本文提出了 ZeroNL2SQL 框架,该框架结合了 PLMs 和 LLMs 的优势,支持零样本学习自然语言到 SQL 转换。该框架首先通过架构对齐使用 PLMs 生成 SQL 草图,然后使用 LLMs 通过复杂推理填充缺失信息。经过全面实验,ZeroNL2SQL 在现实世界基准测试中取得了最佳的零样本 NL2SQL 性能。
Jun, 2023
本研究提出了一种基于大型语言模型的 Text-to-SQL 模型 SQL-PaLM,该模型在几种不同的任务测试中都取得了最优结果,并展示了其应用于现实场景的鲁棒性和智能能力。
May, 2023
PURPLE 是一个使用预训练模型来检索逻辑增强提示的方法,通过检索包含所需逻辑运算符组合的演示以引导 LLMs 生成更好的 SQL 翻译,从而提高准确性。在流行的 NL2SQL 基准 Spider 的验证集上,PURPLE 实现了 80.5% 准确性和 87.8% 执行匹配准确性的新的最先进性能,具有鲁棒性和成本效益。
Mar, 2024
根据自然语言问题(文本到 SQL)生成准确的 SQL 是一个长期存在的问题,传统的文本到 SQL 系统使用人工工程和深度神经网络,而最近的大型语言模型(LLMs)已经展示出在自然语言理解方面的显著能力,因此,将 LLM-based 实现整合到文本到 SQL 研究中可以带来独特的机遇、挑战和解决方案。
Jun, 2024
该研究通过使用大型语言模型(LLMs)来进行文本到 SQL 程序合成的各种方法以及相关的结果和见解,通过使用流行的 Text-to-SQL 数据集(spider)输入自然语言问题和数据库模式并生成正确的 SQL SELECT 查询。通过细调 WizardLM 的 WizardCoder-15B 模型和 fine-tuning gpt-3.5-turbo-16k(Few-shot)+ gpt-4-turbo(Zero-shot error correction)的方式,查询的执行准确率达到了较高的 82.1%。大部分错误查询可以归为七个不同的类别,这揭示了 LLM 程序合成的瑕疵以及可改进的方向。
Jan, 2024
本文对大型语言模型(LLMs)在 Text-to-SQL 任务中的应用进行了研究,提出了一种新的集成解决方案 DAIL-SQL,并通过实验证明了其在 Spider 排行榜上取得了 86.6% 的执行准确率。研究重点在于提示工程中的令牌效率和任务特定的监督微调。通过探索开源 LLMs 在 Text-to-SQL 中的潜力,以及任务特定的监督微调的优势和劣势,希望能够对 LLMs 在 Text-to-SQL 领域提供更深入的了解,并激发进一步的研究和广泛应用。
Aug, 2023