- 查询增强的适应性语义路径推理用于归纳式知识图谱补全
本文提出了 Query-Enhanced Adaptive Semantic Path Reasoning (QASPR) 框架,同时捕捉知识图谱的结构和语义信息,以增强归纳式知识图谱完成任务。QASPR 通过使用查询依赖的掩蔽模块自适应地 - 高效知识路径的推理:知识图引导领域问题回答的大型语言模型
通过在知识图谱(KG)上选择推理路径并结合思维链(CoT)和 PageRank 的子图检索方法,本文整合和优化了一个基于大型语言模型(LLM)的管道,可以减少对 LLM 的依赖。最终,RoK 证明了使用较少的 LLM 调用可以达到相同的结果 - ReFT: 强化微调推理
通过增强学习和在线增强学习的组合,提出了一种名为 ReFT 的简单而有效的方法来增强大型语言模型在推理中的泛化能力,以数学问题求解为例,通过学习多个标注的推理路径,显著提高了性能。
- SMoT: 状态机思考
利用专家知识增强语言模型的问题解决能力,提出了一种新的范式 SMoT,通过预定义的状态机为语言模型提供高效推理路径,消除无效的探索,实验结果显示 SMoT 在推理任务中表现出了卓越的准确性,高达 95%,超过了当前最先进的基准模型。
- AAAI数学满分:渐进修正提示
通过 Progressive Rectification Prompting 方法,对 Chain-of-Thought 提示方法进行改进以提高数学问题的平均准确率。
- 误导性语义快捷键上的推理链路:没有幻觉,模型能走多远?
该研究探讨了大语言模型在推理过程中出现的错误思考路径和幻觉问题,并通过一种新的探测方法和基准测试提供了证据,揭示了语言模型存在语义关联和错误推理的问题。
- EMNLP开放式常识推理与无限答案范围
利用预训练的语言模型迭代地检索外部知识库中的推理路径来帮助识别对于常识问题最准确的答案,并在两个常识基准数据集上实现了比其他方法更好的性能。
- ICLR自洽性提高语言模型的思维连贯性推理能力
本文提出了一种新的解码策略 self-consistency 来替代自我解释式激励中的贪心解码,从而在多种常识推理基准测试中提高其性能。
- ACL开放关系建模:学习定义实体之间的关系
本文介绍了开放式关系建模问题,引入了使用定义实体进行条件生成类型的关系描述的方法,并将推理路径和选择机制包括在内以帮助在知识图谱数据上进行开放式关系建模。实验结果表明,该模型能够生成简洁但信息丰富的关系描述,捕捉实体的代表性特征。
- ICLR学习语义图上的推理路径,为基于视频的对话建立基础
使用 PDC 模型通过语义图的构建和路径预测,依据对话上下文进行推理,从而在多轮视频对话中检索视觉线索并有效回答问题。
- EMNLPSRLGRN:语义角色标注图推理网络
本文提出了一种基于句子语义结构的图推理网络,用于多步问题回答,其在 HotpotQA 分散器设置基准测试中表现出与最新的最先进模型竞争的性能,可以学习跨段理推路径,找到支持事实和答案。
- 多跳问答系统是否知道如何回答单跳子问题?
本文研究了多跳问题回答的模型,调研表明多个现有的多跳 QA 模型无法准确回答子问题,说明其只是通过一些简单的线索来回答问题,而非真正理解推理路径,同时,本文提出的神经解析模型能显著提高子问题的回答性能,推动了向可解释的多跳 QA 系统的建设 - 异构图学习用于视觉常识推理
本文提出了一种新的异构图学习框架(HGL),用于在视觉和语言领域之间建立联系,以帮助解决视觉常识推理的挑战,该框架包括主要的 VAHG 模块和双重 QAHG 模块以及上下文投票模块,能更好地进行全局推理。在大规模的视觉常识推理基准测试中,实