自然语言推理问题中使用语言模型进行知识获取
本研究探讨大型语言模型在自然语言推理任务上的表现。通过使用少量样本指导大型语言模型进行任务适应,以及可应用于多个任务的可重用的知识模块,结合逻辑形式输入的答案程序,实现了在多项 NLP 基准测试上的最新性能,包括 bAbI,StepGame,CLUTRR 和 gSCAN,并成功解决了机器人规划任务,而大型语言模型单独无法解决。
Jul, 2023
我们引入了 LogicAsker,它是一种自动方法,全面评估和改进基于命题和谓词逻辑的大型语言模型的逻辑推理能力,并揭示了 LLM 未能学好的逻辑规则。我们评估了 LogicAsker 在 GPT-3、ChatGPT、GPT-4、Bard、Vicuna 和 Guanaco 等主要的大型语言模型上,并展示了 LogicAsker 的测试用例在不同 LLM 中发现逻辑推理错误的比率从 25% 到 94% 不等。此外,LogicAsker 的测试用例可以进一步用于设计上下文学习的演示例子,有效提高 LLM 的逻辑推理能力,如 GPT-4 提高了 10%。据我们所知,我们的工作是首次基于测试结果创建提示来有效提高 LLM 的形式推理能力。所有的代码、数据和结果都将被公开以供复制和未来研究。
Jan, 2024
本文通过介绍一种新的合成问答数据集 PrOntoQA,旨在通过对 LLMs 的系统探索,该数据集是通过使用一阶逻辑表示的合成世界模型生成的。作者对 InstructGPT 和 GPT-3 进行了分析,表明 LLMs 能够进行正确的逻辑推理,但在方案规划方面存在困难。
Oct, 2022
本文探索使用 GPT-4 解决更复杂的数学问题,并评估了各种使用 GPT-4 的方法,包括作者提出的新的对话式解决框架 - MathChat。针对 MATH 数据集中的困难高中竞赛题进行了评估,结果表明所提出的对话式方法具有优势。
Jun, 2023
本文对大型语言模型在知识图谱构建和推理方面进行了全面的定量和定性评估,结果表明,GPT-4 在大多数任务中表现优异,并在某些推理和问答数据集中甚至超过了微调模型。同时,我们还提出了基于多智能体的 AutoKG 方法,该方法可利用 LLMs 进行知识图谱构建和推理,为该领域的未来发展提供有趣的机遇。
May, 2023
利用大型语言模型(LLMs)加速研究理论计算机科学和数学中最重要的开放性问题之一 P 与 NP 问题的一项工作,提出了一种名为苏格拉底推理的广义框架,通过 LLMs 促进复杂问题解决的深度思考。实验证明 GPT-4 在 97 次对话中通过苛刻的推理得出结论 “P≠NP”,从而揭示了 LLMs 广泛解空间中的新见解,为科学中的 LLMs 提供了启示。
Sep, 2023
该论文回顾了使用知识图谱增强的预训练模型的研究,详细介绍了现有的知识图谱增强预训练语言模型(KGPLMs)及其应用,并提出了基于知识图谱增强的大型语言模型(KGLLM)的思想以增强 LLM 的面向事实的推理能力,为 LLM 的研究开辟了新的途径。
Jun, 2023
本文分析了当前基础 LLM (ChatGPT) 与专门的预训练模型 (REBEL) 的联合实体和关系提取应用,以可持续发展文本为案例进行了多个实验,结果表明,使用先进的 LLM 模型可以提高从非结构化文本创建知识图谱的过程的准确性,并探索了使用基础 LLM 模型自动创建本体论的潜力,取得更相关和准确的知识图谱。
May, 2023