- 信任 UQA:统一结构化数据问答的可信框架
提出了一种名为 UnifiedTQA 的可信赖的问答框架,它能同时支持多种类型的结构化数据,并在评估中优于现有方法,具有潜力用于更广泛的问答任务。
- 基于梵语知识的系统:注释和计算工具
通过自动构建知识图谱的框架、引入本体驱动和通用任务的注释工具,以及提供多样化的网页界面、工具和软件库,我们在梵语的知识系统发展中解决了挑战与机遇,尤其在问答方面。这些贡献不仅提高了梵语文本分析的可访问性和准确性,而且为知识表达和语言处理领域 - CogMG:大型语言模型与知识图谱之间的协同增强
使用协作增强框架 CogMG,结合知识图谱解决了大型语言模型在问答场景中的不完整知识覆盖和知识更新不匹配的问题,并通过监督微调的 LLM 在一个代理框架中展示了在减少幻觉和提高答案的事实准确性方面取得的显著改进。
- KEHRL: 使用层次强化学习学习知识增强语言表征
本文提出了一种通过层次强化学习来学习知识增强语言表示的方法,该方法集成了知识图谱中的关系三元组,并通过自监督学习将这些外部数据源整合到语言模型中,以避免注入不准确或不相关的知识,并有效地提升了模型在各种自然语言理解任务上的性能。
- LLM 引擎支持的解释方法:通过子图推理揭示推荐的原因
利用大型语言模型和知识图谱相结合的方法,增强推荐系统的效果和可解释性,并通过实验证明在实际交叉销售推荐系统中具有实用性和潜力。
- 利用图数据结构和知识图谱的特征选择策略综述
知识图谱中的特征选择方法论及其在增强机器学习模型有效性、假设生成和解释性方面的作用,强调可扩展性、准确性和可解释性的关键重要性,并倡导结合领域知识来优化选择过程。强调多目标优化和跨学科合作在推进知识图谱特征选择方面的潜力,以及这些方法对精准 - medIKAL: 将知识图谱集成为 LLMs 助手,以增强 EMR 上的临床诊断
整合知识图谱和大型语言模型的 medIKAL 框架能够通过对实体的加权重要性和路径重新排序等策略提升电子病历的诊断能力,为临床推理和诊断带来了新的突破。
- 从知识图谱中学习为检索增强的大型语言模型规划
使用来自知识图谱的规划数据,我们介绍了一种增强大型语言模型在复杂问答任务中的性能的新框架,通过使用这些数据对 LLMs 进行微调,提高其规划能力,更好地处理涉及检索的复杂 QA 任务。我们的框架在多个数据集上进行评估,包括我们提出的新基准, - ACL提高基于检索增强预训练和知识图谱集成的多项选择题干扰项生成
本文研究多项选择题中混淆项生成的任务,通过引入检索增强的预训练和知识图谱的集成,我们的模型在基准数据集上显著优于现有结果,最佳模型在多项选择题数据集的 F1@3 得分从 14.80 提升到 16.47,在 Sciq 数据集中从 15.92 - 通过路径选择增强的知识图谱大型语言模型
提出了一个称为 KELP 的基于知识图谱的大型语言模型的框架来解决幻觉问题,通过生成与输入文本的潜在语义匹配程度评分,实现对知识路径的精细提取,同时通过已训练的编码器考虑与输入文本间具有间接语义关系的知识路径。实验验证了 KELP 的有效性 - 超越三元组:上下文知识图表示与推理
本文介绍了知识图谱(KGs)以及其与关系知识的上下文信息的整合,重点讨论了基于三元组的 KGs 存在的局限性和上下文 KGs 的优势,并提出了 KGR$^3$,一个利用大型语言模型(LLMs)进行 KG 推理的范例,实验证明 KGR$^3$ - 大型语言模型是否能取代分类法?
大型语言模型(LLM)在一般知识上表现出色,但在细致的长尾知识上表现不佳,该研究问传统的知识图谱是否应该被 LLMs 取代,通过构建名为 TaxoGlimpse 的新型基准对 LLMs 在各种领域的不同层级的专业知识和叶级实体的性能进行评估 - KGPA: 大型语言模型的跨领域知识图谱鲁棒性评估
本文提出了一种通过知识图谱来评估大型语言模型在对抗攻击场景下的鲁棒性的框架,并通过生成原始提示和毒化的对抗提示来评估模型的鲁棒性。实验证明,ChatGPT 家族的对抗鲁棒性在 GPT-4-turbo > GPT-4o > GPT-3.5-t - 基于嵌入式链接预测的规则挖掘改进
在本研究中,我们提出了一种新的方法,通过在给定知识图谱上应用预训练的实体和关系嵌入来增强知识图谱,并运用规则挖掘系统,从而结合了规则挖掘和基于嵌入的方法的优点,我们在七个基准数据集上进行了大量实验证明了我们的方法的有效性,并提供了开源实现、 - 精确赋能,过度分散:动态注入语言模型中的视觉问答知识
通过提供来自知识图谱中提取的相关外部知识,我们通过增强问题并实现可变数量的三元组,为知识增强的视觉问答模型带来了平均 4.75%的准确匹配得分提升,并展示了其在推理能力和泛化能力方面的优势。
- 学习具有结构和非结构知识的多视角分子表示
通过多视角分子表示学习,MV-Mol 模型从化学结构、生物医学文本和知识图谱中提取多视图分子专业知识,并在分子性质预测和多模态分子结构与文本理解方面展现出卓越的性能。
- 大型语言模型与知识图谱相互作用的研究趋势
本研究调查了大型语言模型(LLMs)与知识图谱(KGs)之间的协同关系,旨在探讨 KG 问答、本体生成、KG 验证以及通过 LLMs 提高 KG 准确性和一致性等领域的研究空白。该论文还检验了 LLMs 在生成描述性文本和自然语言查询方面的 - ACL提升知识图谱中多跳逻辑推理的上下文感知查询表示学习
通过全面整合 FOL 查询图的上下文,我们提出了一种模型不可知的方法,增强了现有的多跳逻辑推理方法,在两个数据集上的实验中,我们的方法始终提升了三个多跳推理基准模型的性能,最高可达 19.5%。
- 近期基于随机游走的知识图嵌入方法综述
本文主要介绍了知识图谱及其嵌入方法,并回顾了最近发展的一些基于随机游走的嵌入方法。
- 受欢迎的实体从语言模型中删除知识时会产生灾难性的副作用
通过对语言模型中存储的知识和知识删除的副作用与实体之间的关系进行分析,本研究揭示了删除与热门实体相关的知识可能产生灾难性副作用,并首次分析了在合成知识图训练的模型中的知识删除,为受控实验指明了新的方向。