基于推理图增强的语境学习样本检索
本文研究大型语言模型在上文环境学习中如何利用解释,通过研究计算跟踪和语言表达对影响解释的有效性,我们发现两种因素对于解释的有效性都起重要作用,同时提出了一种基于最大边际相关性的样本选择方法,以构建既相关又补充的样本集,成功提高了大型语言模型在多个真实世界任务上的上下文学习性能。
Nov, 2022
提出了一种简单而有效的方法来检索和重新排序与问题回答相关的三元组,并将它们与问题连接以提高语言模型的表现,实验结果显示,其在常识问答和开放式书本问答数据集上均表现优于现有的最佳方法。
May, 2023
我们引入了一种基于图的方法来增强大型语言模型的推理能力,通过分析和验证由LLMs生成的解决方案,我们的实验结果表明,我们的基于图的验证方法不仅显著提高了LLMs的推理能力,而且在提高这些模型的推理性能方面优于现有的验证程序。
Aug, 2023
SEER是一种选择代表性和多样性的示例集合的新方法,通过将示例选择问题转化为背包整数线性规划问题,通过灵活调整多样性和容量约束条件来提高在HybridQA中的性能。在FinQA和TAT-QA两个真实世界的HybridQA基准测试中,SEER优于先前的示例选择方法。
Oct, 2023
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得LLMs能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在QALD10数据集上相对于最佳基线和最先进的方法提高了超过10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升LLMs在解决复杂问题上的能力。
Feb, 2024
本研究探索了大型语言模型在教育应用中的能力,重点关注概念图恢复和问题回答。研究通过引入TutorQA,一个新的专家验证的自然语言处理基准,评估了大型语言模型在领域特定的概念图和问题回答中的性能,证明其零-shot概念图恢复具有竞争力,且CGLLM生成的答案具有更精细的概念。
Feb, 2024
本文提出了'Logic-Query-of-Thoughts' (LGOT)方法,首次将大型语言模型 (LLMs) 与基于知识图谱的逻辑查询推理相结合,通过将复杂的逻辑查询拆解为易答的子问题,并利用知识图谱推理和LLMs共同解答,最终获得准确的结果。实验结果显示LGOT在性能上得到了大幅提升,相比ChatGPT提高了20%。
Mar, 2024
本文提出了一种检索-探索互动方法FiDelis,用于处理以知识图谱为基础的推理的中间步骤。通过结合LLMs的逻辑和常识推理以及KG的拓扑连接性,我们提出了Path-RAG模块,用于从KG中检索有用的中间知识用于LLM推理,并利用LLMs的演绎推理能力来自动引导推理过程,以精确确定何时停止进一步的推理,避免误导推理链和不必要的计算。大量实验证明我们的方法在三个基准测试中的性能优于现有的强基线模型,并且作为一种无需训练且计算成本较低且具有更好普适性的方法。
May, 2024
本研究解决的主要问题是传统文本嵌入方法在多步推理任务中的有效性不足。我们提出的GraphIC方法采用图形表示推理过程,并结合贝叶斯网络选择上下文示例,有效捕捉了深层推理结构。实验结果显示,GraphIC在多步推理任务的上下文示例选择中显著优于现有模型,提高了上下文学习的性能和互操作性。
Oct, 2024