使用检索机制动态自动选择基于跨模态相似性的示例,以提升多模态推理中大型语言模型的性能。对各类示例进行分组并分别从不同组中检索示例,以增加示例的多样性。通过一系列实验,我们证明了我们的方法在多模态推理任务中取得了显著的性能改进。
Dec, 2023
大型语言模型(LLMs)在生成连贯思路解释时展现出强大的推理能力,然而,之前的研究仅关注于回答的准确性,忽略了生成的连贯思路的正确性。本文通过利用知识图谱(KGs)深入探讨 LLMs 在多跳问题回答中的连贯思路推理能力。我们提出了一种新颖的区分性和生成性连贯思路评估范式,用于评估 LLMs 关于推理的知识和生成连贯思路的准确性。通过在两个多跳问题回答数据集上对 5 个不同家族的 LLMs 进行的实验证明,LLMs 具有足够的知识进行推理,然而,LLMs 生成的连贯思路的准确性与回答的准确性存在显著差异,表明它们经常通过错误的推理方法得出正确的答案。
Feb, 2024
使用 Graph-CoT 框架,通过对图进行迭代推理,将大型语言模型(LLMs)与图相结合,从而提高知识密集型任务中的性能。
Apr, 2024
该研究提出了一种将语言与视觉信息相结合的理由生成和答案推断的多模态 - CoT 框架,使得答案推断可以更好地利用基于多模态信息的生成的理由,并取得了比先前最先进的 LLM(GPT-3.5)高 16 个百分点(75.17%-> 91.68%准确度)的性能,在 ScienceQA 基准测试中甚至超过了人类的表现。
Feb, 2023
我们提出了一种新的基于文本的时间推理模型 TempGraph-LLM,通过将上下文翻译成时间图,教导大型语言模型 (LLMs) 学习时间概念。我们证明了在其他任务上的预训练对 LLMs 的效益,并通过思路链的引导和特殊数据增强引导 LLMs 进行符号推理,观察到符号推理带来更一致可靠的结果。
Jan, 2024
使用大型语言模型的 CoT-ER 方法为少样本关系提取提出了一种新的方法,该方法利用具体证明推理将证据明确地纳入思维链式提示,实验结果表明,CoT-ER 方法(无训练数据)在 FewRel1.0 和 FewRel2.0 数据集上的表现与全监督(有 100% 训练数据)最新方法相当。
Nov, 2023
通过在知识图谱(KG)上选择推理路径并结合思维链(CoT)和 PageRank 的子图检索方法,本文整合和优化了一个基于大型语言模型(LLM)的管道,可以减少对 LLM 的依赖。最终,RoK 证明了使用较少的 LLM 调用可以达到相同的结果。
本研究提出了一种基于全面图网络的逻辑推理方法,在上下文和单词层面处理上下文,通过层次交互机制建模节点级关系和类型级关系,以提高阅读理解系统的解释能力和理解复杂逻辑关系的能力。
Jun, 2023
通过引入图引导的 CoT 提示方法,以问题 / 理由图为基础的图引导推理方法在多步骤推理中表现出优越性能。
通过集成大型语言模型和自然语言推理模块,我们提出一种自动标注方法来生成关系三元组,从而增强文档级关系数据集,我们通过介绍增强的数据集 DocGNRE 展示了我们方法的有效性,该方法在重新注释众多长尾关系类型方面表现出色,并且在推进广义语言语义理解方面提供了实际好处。