- 检索与推理相遇:长文本理解的动态上下文编辑
通过动态上下文编辑的方式,我们引入了一种新的方法,将信息检索重新设想,使长文本上下文成为可塑的外部知识,并通过与最新的知识编辑技术相结合,与有关信息进行交互式收集和整合,从而使大型语言模型能够进行复杂的推理步骤,有效增强了推理能力。
- MEMLA: 用神经掩蔽低秩适应增强多语言知识编辑
多语言知识编辑涉及通过神经元屏蔽、低秩适应等方法,在多语言语言模型中进行跨语言更新,以提高编辑精度和多跳推理能力。
- 追溯证据:构建基于知识的推理链用于检索增强生成
TRACE 利用知识图谱和推理链的构建提升了多跳推理能力,通过利用检索文档中的支持证据回答问题,平均提升了 14.03% 的性能,并表明仅使用推理链作为上下文通常足以正确回答问题。
- 高效并行多跳推理:知识图分析的可扩展方法
这篇论文重点关注如何优化多跳推理(MHR)的时间效率,提出了一种新的并行算法来快速识别知识图谱中顶点之间的前 K 个路径,从而有效地回答三跳查询,并通过实证结果展示了该算法的卓越性能。
- ACL通过高效微调进行时间敏感知识编辑
通过研究发现,Parameter-Efficient Fine-Tuning (PEFT) 技术相较于定位和编辑方法,在时效性知识编辑方面表现更优,从而为大型语言模型的更新提供了一种替代方案。
- 图神经网络增强的 LLM 问题回答检索
我们提出了一种名为 GNN-Ret 的新型检索方法,利用图神经网络(GNNs)考虑段落间的相关性来增强检索过程,并通过 RGNN-Ret 处理多跳推理问题,从而提高问题回答准确率。实验结果表明,GNN-Ret 相比多次查询的强基线方法在单次 - 发现差距:面向视觉问答的知识库推理
我们分析了基于知识的视觉问答,研究问题是:1)我们能通过显式有监督检索相关知识解决知识库 - 视觉问答问题吗?2)任务特定模型和预训练语言模型在视觉和外部知识的整合以及多跳推理方面的表现如何?3)预训练语言模型的隐式知识足够用于知识库 - - MLaKE:大型语言模型的多语言知识编辑基准
通过多个语言中的多跳推理和单跳问题,MLaKE(多语言语言知识编辑)评估了知识编辑方法在多语言环境下的适应性,发现现有方法在英语样本上表现较好,但在多语言实验中的泛化能力有限,强调了多语言知识编辑的发展需求。
- 当必要时与我联系:LLMs 可以在结构化环境中高效和忠实地推理
大型语言模型在理解结构化环境中的推理任务中显示出潜力。我们提出了一种名为 Readi 的新框架,使 LLMs 能够高效而准确地在结构化环境中进行推理,并超越了其他基于 LLM 的方法。
- BlendSQL:统一混合问题回答的可伸缩方言
BlendSQL 是一个 SQLite 的超集,通过单个解释性的 BlendSQL 查询将完整的分解推理路线编码为一个统一的方言,可用于解决涉及多跳推理的混合问答任务,并且能够在使用更少词汇的情况下扩展到大型数据集并提高端到端系统的性能。
- 大型语言模型是否具备潜在的多跳推理能力?
我们研究了大型语言模型是否会潜在地使用复杂提示进行多跳推理,例如 “‘Superstition’歌手的妈妈是谁”。我们寻找潜在的推理路径,其中语言模型(1)将 “‘Superstition’歌手” 潜在地认定为桥梁实体 Stevie Won - ACLFanOutQA:大型语言模型的多跳、多文档问答
通过创建 FanOutQA 数据集以及进行评估测试,研究发现当处理复杂的多文档依赖关系时,当代的语言模型如 GPT-4、LLaMA 2、Claude-2.1 和 Mixtral-8x7B 仍存在推理能力的提升空间。
- KG-Agent: 知识图谱复杂推理的高效自主代理框架
本研究旨在通过知识图谱改进大型语言模型 (LLM) 的推理能力,以回答复杂问题。我们提出了一种自主的基于 LLM 的智能体框架 KG-Agent,它允许一个小型 LLM 主动作出决策,直到完成对知识图谱的推理过程。在 KG-Agent 中, - 基于类型的神经网络链接预测适配器用于复杂查询回答
答疑不完整的知识图谱上的复杂逻辑查询是一个基础且具有挑战性的任务,本文通过构建基于类型的实体关系图来发现实体和关系之间的潜在关系,并引入了一种自适应学习机制来有效地将类型信息与复杂逻辑查询结合,通过反向传播训练达到神经链接预测器的自适应调整 - EMNLP多层次内容规划改进问题生成
提出了一个基于多层次内容规划的新型问句生成框架 MultiFactor,通过同时选择关键短语和生成完整答案进行问句生成,引入了完整答案生成来连接短答案和选定的关键短语,从而形成帮助问句生成的答案感知摘要。代码可在此链接中获取。
- EMNLPDepWiGNN: 文本中的多跳空间推理的深度图神经网络
我们提出了一种新的深度分层图神经网络(DepWiGNN)用于空间推理,在两个具有多跳空间推理数据集上的实验证明 DepWiGNN 优于现有的空间推理方法,并与其他三种图神经网络进行了比较来展示其在图中捕捉长依赖性方面的优势。
- 大型语言模型逻辑推理的教学学习
通过对大型语言模型的研究,我们发现它们在逻辑推理方面存在缺陷,导致其在任务解决中产生反事实的答案。为了解决这个问题,我们提出了多种策略,赋予大型语言模型逻辑推理能力,从而使其能够在不同场景中生成更符合逻辑的答案。我们还通过构建一个综合数据集 - 内存注入:纠正变压器式语言模型推理中的多跳推理错误
通过对 LLM 注意力头部进行有针对性的内存注入,我们提出了一种解决多跳推理失败的方法,从而增强了多跳提示完成的质量。我们展示了在多跳任务中,向关键注意力层注入简单、高效和有针对性的记忆可以显著提高所需下一个标记的概率,最高可达 424%。
- 专家思维:多模态思维超图(HoT)推理提升基础模态
本文提出了一种基于多样图思维的类专家级超图的推理范式 (HoT),使基础模型具备高阶多跳推理和多模态比较判断的专家级能力。实验结果表明,该方法在 ScienceQA 基准上优于基于 CoT 的 GPT3.5 和 chatGPT,并且与基于 - 按能力而非得到的结果行事:基于拓扑结构的多模态知识图谱多跳推理
本文提出了一种拓扑感知的、适用于归纳和推理环境下的多模态知识图谱推理方法 TMR,该方法主要由任务感知归纳表示和关系增强自适应强化学习两个组件构成,并在不同规模的归纳推理数据集上进行了评估。实验表明,TMR 在归纳和推理环境下均优于现有的多