大型语言模型是少量样本的表格推理器
使用大型语言模型 (LLMs) 改善表格推理性能是当前主流方法。本文分析了在 LLMs 时代中提升表格推理性能的主要技术以及 LLMs 相较于之前方法的优势,并提供了改进现有方法和扩展实际应用的研究方向,以激发未来表格推理研究的进一步发展。
Feb, 2024
提出了一种新颖的上下文学习框架 FealtLLM,利用大型语言模型作为特征工程师,生成适合表格预测的优化输入数据集,在推断阶段使用生成的特征和简单的下游机器学习模型 (如线性回归) 来推断分类的可能性,从而实现高性能的小样本学习。FeatLLM 框架只使用简单的预测模型和推断时发现的特征,相较于现有的基于大型语言模型的方法,FeatLLM 可以消除每个样本都需要查询大型语言模型的需求和克服提示大小的限制,并且仅需要对大型语言模型的 API 进行访问。在多个来自不同领域的表格数据集上的实验证明,FeatLLM 生成高质量的规则,明显 (平均达到 10%) 优于 TabLLM 和 STUNT 等替代方法。
Apr, 2024
本研究研究了大型语言模型在生成结构化表格数据文本时的性能,证明了大型语言模型在文本生成领域中的潜力和应用,并探讨了大型语言模型在文本生成质量自动评估及模型优化中的应用。
May, 2023
通过对大型语言模型的研究,揭示了它们在解释和推理表格数据方面的能力,发现表格结构变化对模型性能的影响,提出了表格结构归一化的方法,并且比较了文本推理和符号推理,同时通过多个推理路径的聚合,取得了在 WIKITABLEQUESTIONS 任务上的最新成果。
Dec, 2023
通过对大型语言模型(LLMs)在表格任务方面的应用进行全面的概述,本文除了涵盖传统的表格问答(Table QA)和事实验证等领域,还强调了表格操作和高级表格数据分析等新方面,并介绍了 LLMs 中的指导调优、提示和基于代理的方法,同时也提出了私有部署、高效推理和开发广泛基准的相关挑战。
Feb, 2024
通过大型语言模型的提示工程和指令调整,可以在表格事实验证中实现接受的零样本和少样本验证能力,并且可以促进进一步通过大型语言模型提高表格推理的准确性的研究。
Feb, 2024
本文使用大型语言模型对表格推理进行了分解,针对表格中的冗余信息,将大的表格分解为小的子表格进行推理,同时将复杂问题分解为简单子问题进行文本推理,实验结果表明,本方法在多个数据集上都表现出色并首次超越人类在 TabFact 数据集上的表现。
Jan, 2023
本论文提出了一种新颖的基于表格推理的蒸馏方法,通过将大型语言模型(LLMs)蒸馏成专门为基于表格推理任务设计的小型模型,实验证明使用蒸馏数据进行微调的 0.22 亿参数模型(Flan-T5-base)在科学表格文本生成数据集(SciGen)上不仅显著提高了性能,而且超越了诸如 gpt-3.5-turbo 等特定 LLMs 的表现。
Sep, 2023