- ACL基于语言模型的组合概括
通过扩展语义解析的组成概括工作,我们为生成与知识图谱配对的自然语言问题开发了一种方法,以在不受限于语言模型权重隐式编码的信息的同时,对这些模型从知识图谱中学习和概括程度进行控制性评估,我们发现现有的将语言模型与知识图谱组合的方法在未见过长度 - Docs2KG: 基于大型语言模型辅助的异构文档统一知识图谱构建
本文介绍了 Docs2KG,一种从不同和异构的非结构化文档中提取多模式信息的新框架。Docs2KG 可以动态生成表示提取的关键信息的统一知识图,从而实现对文档数据湖的高效查询和探索。该框架与现有方法不同,它提供了一种灵活可扩展的解决方案,可 - FactGenius:结合零 - shot 提示和模糊关系挖掘提高知识图谱事实验证
FactGenius 是一种结合零 - shot 大语言模型和模糊文本匹配的创新方法,通过使用来自维基百科的结构化链接数据集 DBpedia,利用相似性度量来提高大语言模型生成的连接的准确性,经过 FactKG 基准数据集的评估验证其在事实 - EffiQA: 在知识图谱上进行策略性多模型协作的高效问答
我们提出了 EffiQA,一种在性能和效率之间取得平衡的协作框架,通过全球计划、高效知识图谱探索和自我反思三个阶段,改进了大型语言模型在多步骤推理任务中的表现,为知识密集查询提供了新的集成模式。
- LinkLogic: 透明的知识图谱预测的新方法和基准测试
该研究提出了一种名为 LinkLogic 的简单连接预测解释方法,并构建了第一个基于家族结构的连接预测解释基准,以定量和定性评估生成的解释的忠实度、选择性和相关性。
- 知识图谱调优:基于人类反馈的实时大型语言模型个性化
通过使用知识图谱进行实时个性化,文章提出了一种提高大型语言模型用户体验的方法,而不需要修改模型参数,从而改善了计算和内存效率,并保证解释性和个性化性能。
- GNN-RAG:用于大规模语言模型推理的图神经网络检索
本文介绍了 GNN-RAG,一种将 LLMs 的语言理解能力与 GNNs 的推理能力以检索增强生成(RAG)风格相结合的新方法。通过 GNN 在稠密的 KG 子图上推理,提取连接问题实体和答案候选的最短路径,将其转化为 LLM 推理的输入。 - 基于 LLMs 和具有体现知识图谱的服务机器人的安全控制
通过将大型语言模型与具体机器人控制提示和具体知识图谱相结合,我们提出了一种新的集成方法,以增强服务机器人的安全框架,确保其行动与安全协议持续保持一致,并在各种情境下提供更安全的操作实践,从而促进安全的人机互动。
- 融合 RAG 以提升多模态电子健康记录预测建模的 EMERGE
利用 EMERGE 框架、Retrieval-Augmented Generation (RAG) 驅動,提取多模態電子健康紀錄 (EHR) 中的實體,並結合專業 PrimeKG 確保一致性,以加強多模態 EHR 預測建模並生成患者健康狀態 - 基于知识的大型语言模型的高效问答系统
Coke 是一种新颖的成本有效的 KBQA 策略,它通过将 LLMs 和 KGMs 相结合,作为一个定制的多臂赌博问题来最小化对 LLMs 的调用,从而在有限的预算内实现成本节约并提高准确性。
- 使用大型语言模型的有噪注释实体对齐
通过设计一种新颖的主动学习策略以及引入无监督标签优化方法,我们提出了一个统一的框架 LLM4EA,以有效地利用大型语言模型自动化实体对齐,并在四个基准数据集上进行了广泛实验,证明了其在效果、鲁棒性和效率方面的优势。
- 知识图谱构建中的不确定性管理:一项调查
建立知识图谱是个具有挑战性的任务,因为需要处理提取知识中的不确定性,并且需要解决数据的可靠性和冲突问题,同时还需要确保知识图谱的质量。
- FiDeLiS:语言模型在知识图谱问答中的忠实推理
本文提出了一种检索 - 探索互动方法 FiDelis,用于处理以知识图谱为基础的推理的中间步骤。通过结合 LLMs 的逻辑和常识推理以及 KG 的拓扑连接性,我们提出了 Path-RAG 模块,用于从 KG 中检索有用的中间知识用于 LLM - 多域知识图谱协作预训练及提示调整用于多样化下游任务
我们提出了一个名为 MuDoK 的框架,实现了多领域协同预训练和高效前缀提示调整,以服务于推荐和文本理解等多样化的下游任务。我们构建了一个新的多领域知识图谱预训练基准,名为 KPI,用于评估我们的方法,并开源以供后续研究。实验结果表明,我们 - 基于语言处理的自动新闻生成与事实核查系统
本文探索了一种基于语言处理的自动新闻生成和事实核查系统,旨在提高新闻生产的效率和质量,同时确保新闻内容的真实性和可靠性。通过整合事实核查技术,该系统可以有效防止虚假新闻的传播,提高新闻的准确性和可信度,而自动新闻生成和事实核查所涉及的关键技 - ACL基于时间线的句子分解与上下文学习的时间事实提取
本文主要研究了从自然语言文本中提取时间事实的方法,提出了基于时间轴的句子分解策略,利用大型语言模型进行上下文学习,以确保对各种事实相关的时间轴有更细粒度的理解。同时,介绍了一种将大型语言模型的分解能力与传统小型预训练语言模型的微调相结合的方 - CVPRSOK-Bench:具有对齐的开放世界知识的情境视频推理基准
通过从真实世界的视觉环境和场景中学习常识推理,可以迈向先进的人工智能;然而,现有的视频推理基准仍然不足,因为它们主要设计用于事实推理或定位推理,很少涉及到现实世界的更广泛的知识。我们的工作旨在深入研究推理评估,尤其是在动态的、开放的和结构化 - 通过自我完善增强的知识检索减轻大型语言模型的幻觉
在医学领域中,通过使用自我完善的知识图谱检索方法(Re-KGR),我们可以显著提高大型语言模型的真实性,降低谬误并减少虚构内容。
- 利用知识图谱为涉及长尾事实的问答任务提供大型语言模型的引导
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个 - G-SAP:基于图的异构知识的常识推理结构感知提示学习
我们提出了一种用于常识推理的新型基于图结构的提示学习模型,名为 G-SAP,旨在在 LM+GNNs 模型中保持异构知识的平衡并增强跨模态的交互。通过将多个知识源整合到证据图中,采用结构感知的冻结 PLM 来完全融合来自证据图的结构化和文本信