利用大型语言模型(LLM)的先进推理能力,我们提出了一种新颖的 ISR 方法,通过生成初始提示来引导 LLMs 预测会话中的下一个项目,然后通过迭代自反和调整提示的创新优化机制来完善这个过程,进一步基于 LLMs 的广泛适应能力,我们的提示选择模块快速选择各种领域中最优化的提示,使 LLMs 能够在语义层面上辨别各种用户意图,从而实现更准确和可解释的会话推荐。在三个真实数据集上的广泛实验证明了我们方法的有效性,并在 ISR 系统中取得了重大进展。
Dec, 2023
本文提出了一种基于文本编码的结构模型框架,用于在知识图谱上进行归纳逻辑推理,通过设计渐进式的指令和额外的注意力和 maxout 层来增强结构建模,成功处理了复杂查询的逻辑结构,提高了在归纳和转导数据集上的推理效率。
May, 2023
在本文中,我们提出了一个基于大型语言模型(LLMs)的知识图谱上的复杂逻辑推理模式,包括一个基于课程的逻辑感知调优框架,名为 LACT。通过二叉树分解来增强 LLMs 的推理能力,并设计了一个简单而灵活的逻辑感知课程学习框架,以解决不同类型复杂查询之间的困难差距。实验结果表明,LACT 显著改进了其他先进方法(平均提高了 5.5% 的 MRR 得分),达到了最新的最佳效果。我们的代码和模型将很快在 GitHub 和 huggingface 上发布。
May, 2024
基于云缓存的查询处理被优化,通过将经常访问的数据靠近用户来提高效率。然而,在现有的研究中,忽视了用户意图类型对查询处理效率的影响。因此,本研究利用上下文模糊语义推理系统 (CFLIS) 分析了查询中的信息、导航和事务意图,以增强查询处理。
Jun, 2024
本研究提出一种基于图形提取算法和大型语言模型的解耦合语言引导抽象推理方法,将复杂的知识图推理作为上下文知识图搜索和抽象逻辑查询推理的组合,显著提高了复杂查询的性能。
在本文中,我们通过系统地研究律师入学考试的三项具有挑战性并且领域通用的任务,包括分析推理、逻辑推理和阅读理解,进一步推进了复杂推理。我们提出了一个混合推理系统,将这三个任务进行整合,并在律师入学考试中获得了令人印象深刻的整体表现。实验结果表明,我们的系统具有一定的复杂推理能力,特别是基本阅读理解和具有挑战性的逻辑推理能力。进一步分析还显示了将预训练模型与任务专用的推理模块相结合,以及将符号知识整合到复杂推理的离散可解释推理步骤中的有效性。我们进一步展示了未来潜在的方向,如无监督符号知识提取、模型可解释性、小样本学习和复杂推理的全面基准。
Aug, 2021
通过对最新进展的简要回顾,本文试图了解大型语言模型在逻辑推理方面的能力,包括逻辑推理数据集、任务以及利用大型语言模型进行推理的方法。通过构建基准测试集 LogiGLUE,并训练一个经过指令微调的语言模型 LogiT5,研究了单任务训练、多任务训练以及思维链知识蒸馏微调技术在不同逻辑推理类别上的表现,旨在揭示大型语言模型在逻辑推理中的能力和潜在路径,为该关键领域的高级和精细化发展铺平道路。
Oct, 2023
本研究提出了一个基于逻辑查询嵌入的个性化推荐方法,利用知识图谱和多任务知识共享机制来处理用户的逻辑需求并提升推荐效果。
Apr, 2023
在这篇论文中,我们提出了 IntentionQA,一个双重任务多项选择问题回答基准,用于评估语言模型对电子商务中购买意图的理解能力。通过以购买的产品为基础推测意图,并利用它们预测额外的购买,LMs 被赋予了推断意图的任务。IntentionQA 包含了 4,360 个经过精心筛选的问题,涵盖了三个难度级别,使用自动化流程在大型电子商务平台上保证了可扩展性。人工评估结果表明我们的基准具有高质量和低误报率。我们的代码和数据公开在该网址。
本文介绍了一种使用神经网络来处理知识图谱上的多跳逻辑查询的方法,并展示了实验室中的卓越性能,该方法可以处理包括否定查询在内的全一阶逻辑查询。
Sep, 2022