LKPNR: 个性化新闻推荐框架的 LLM 和 KG
LLM-KERec 利用大型语言模型捕捉用户意图转变,适应新项目,并提高在不断发展的电子商务领域中的推荐效率,通过整合互补知识解决传统推荐系统的局限性。
Feb, 2024
本文介绍一种基于大型语言模型的可生成新闻推荐框架 GENRE,通过预训练的语义知识,提供了一种灵活且统一的新闻推荐解决方案,可以用于个性化新闻推荐、用户画像和新闻摘要。各种流行的推荐模型的广泛实验证明了 GENRE 的有效性。
May, 2023
通过使用链式思维促进和上下文学习,该研究介绍了一种新方法,即知识图大型语言模型框架(KG-LLM),以提高知识图中多跳链接预测的效果。实验证明,集成上下文学习和链式思维不仅增加了方法的性能,而且显著提高了模型的泛化能力,从而在陌生情境中实现更准确的预测。
Mar, 2024
利用外部知识辅助大规模语言模型(LLM)在生成真实可用的文本方面具有潜力,因此我们提出了一种名为‘Knowledge-Enhanced LLMRec’的方法,通过使用外部知识在生成过程中,并且通过基于知识的对比学习方案来训练模型,实验证实了该方法的有效性。
Mar, 2024
本研究旨在开发一种创新的语义查询处理系统,允许用户获取澳大利亚国立大学计算机科学(CS)研究员们所产生的研究作品的全面信息。该系统将大型语言模型(LLMs)与澳大利亚国立大学 CS 领域的 ANU Scholarly Knowledge Graph(ASKG)相结合,ASKG 是存储 ANU 所有研究相关产物的结构化知识库。通过结合 Deep Document Model(DDM)进行全面文档表示和 KG-enhanced Query Processing(KGQP)进行优化复杂查询处理的知识图融合方法,以解决传统学术知识图建设和利用方法的局限性,该方法能够获取来自 ASKG 的相关事实和文本节点,并在实验中显示出优于基准方法的结果,具有提高查询准确性和效率的潜力,为开发与 LLMs 的精确可靠交互奠定基础,强化了知识利用与自然语言理解能力。这项工作展示了该框架在学术研究场景中的实际应用,凸显其革新学术知识管理与发现的潜力,使研究人员更有效地获取和利用文档中的知识。
May, 2024
在个性化教育时代,为学习推荐提供易于理解的解释对增强学习者的理解和参与推荐的学习内容具有巨大价值。本文提出了一种利用知识图谱作为意见引擎源的方法,以减小语言模型模型的错误生成的风险,并确保高精度地满足学习者的意图,同时保持有关应用的学习上下文。我们利用知识图谱中的语义关系提供关于学习推荐的精心策划的知识。通过将领域专家纳入研究的提示工程阶段,设计解释模板,由语言模型进行填充和完成来确保解释包含与学习者相关的信息。我们定量评估了我们的方法使用 Rouge-N 和 Rouge-L 指标,并进行了与专家和学习者的质性评估。我们的结果表明,与仅由 GPT 模型生成的解释相比,生成的解释具有更高的召回率和准确度,并且极大地降低了最终学习解释中生成不准确信息的风险。
Mar, 2024
本研究调查了大型语言模型(LLMs)与知识图谱(KGs)之间的协同关系,旨在探讨 KG 问答、本体生成、KG 验证以及通过 LLMs 提高 KG 准确性和一致性等领域的研究空白。该论文还检验了 LLMs 在生成描述性文本和自然语言查询方面的作用,并通过分类 LLM-KG 交互、研究方法论和合作使用以及潜在偏见等结构化分析,提供了它们的结合潜力的新见解。该研究强调了它们的交互对于提升人工智能应用的重要性,并概述了未来的研究方向。
Jun, 2024
通过使用知识图谱进行实时个性化,文章提出了一种提高大型语言模型用户体验的方法,而不需要修改模型参数,从而改善了计算和内存效率,并保证解释性和个性化性能。
May, 2024
本文提出了使用知识图谱和大型语言模型的三种框架,分别为增强了的知识图谱、增强了的大型语言模型和协同增强。这三个框架能够互相协作,实现双向推理,提高自然语言处理和人工智能的表现,同时指出未来的研究方向。
Jun, 2023
尽管大型语言模型在知识密集型任务上表现出竞争力,但它们仍存在于记忆所有世界知识,尤其是长尾知识方面的局限性。本文研究了用于解决知识图谱问答任务的知识图增强语言模型方法。基于回答敏感的 KG-to-Text 方法,我们提出了一种将 KG 知识转化为对 KGQA 最有信息量的文本化陈述的方法,并基于此方法提出了一种 KG-to-Text 增强的 LLMs 框架来解决 KGQA 任务。在几个 KGQA 基准测试上的实验证明了所提出的 KG-to-Text 增强 LLMs 方法在回答准确性和知识陈述的有用性方面优于先前的 KG 增强 LLMs 方法。
Sep, 2023