提高学生性能预测中基于学习者提供问题的 SGNN-LLM 协同效应
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得 LLMs 能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在 QALD10 数据集上相对于最佳基线和最先进的方法提高了超过 10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升 LLMs 在解决复杂问题上的能力。
Feb, 2024
通过结合大型语言模型(LLMs)和知识图谱(KGs),本研究论文提出了一种自动构建知识图谱的方法,并讨论了在数字教育环境中,LLMs 与 KGs 结合在问答任务中的初步应用。
Apr, 2024
该研究提出了一种新模型 QA-GNN,通过关联系统知识图和语言模型,实现对问题与答案之间的共同推理,并取得了在常识和生物医学领域 QA 测试中优于现有模型的表现。
Apr, 2021
本研究探索了大型语言模型在教育应用中的能力,重点关注概念图恢复和问题回答。研究通过引入 TutorQA,一个新的专家验证的自然语言处理基准,评估了大型语言模型在领域特定的概念图和问题回答中的性能,证明其零 - shot 概念图恢复具有竞争力,且 CGLLM 生成的答案具有更精细的概念。
Feb, 2024
将大型语言模型(LLMs)与图神经网络(GNNs)相结合的互动方式(LLMs-as-Consultants)——LOGIN(LLM Consulted GNN training)框架,在节点分类任务上取得了与复杂设计的先进 GNNs 相媲美的性能,而且其基本 GNN 架构能够实现与强化设计的 GNNs 相当的性能。
May, 2024
在个性化教育时代,为学习推荐提供易于理解的解释对增强学习者的理解和参与推荐的学习内容具有巨大价值。本文提出了一种利用知识图谱作为意见引擎源的方法,以减小语言模型模型的错误生成的风险,并确保高精度地满足学习者的意图,同时保持有关应用的学习上下文。我们利用知识图谱中的语义关系提供关于学习推荐的精心策划的知识。通过将领域专家纳入研究的提示工程阶段,设计解释模板,由语言模型进行填充和完成来确保解释包含与学习者相关的信息。我们定量评估了我们的方法使用 Rouge-N 和 Rouge-L 指标,并进行了与专家和学习者的质性评估。我们的结果表明,与仅由 GPT 模型生成的解释相比,生成的解释具有更高的召回率和准确度,并且极大地降低了最终学习解释中生成不准确信息的风险。
Mar, 2024
利用预训练语言模型(LMs)和知识图谱(KGs)解答问题存在识别相关知识和进行联合推理的挑战。通过与先前发表的 QAGNN 方法进行比较,我们发现将相关的知识事实纳入问题上下文有助于提高问题回答性能,而将知识图谱融入语言模型中则只能带来少量增长,这表明将上下文知识事实结合起来可能对增强问题回答性能更具影响力。
Dec, 2023
此论文提出了一个 Explore-then-Determine(EtD)框架,将 Large Language Models(LLMs)与图神经网络(GNNs)相结合,用于在知识图谱上进行推理。在 Explore 阶段,使用轻量级 GNN 探索有希望的候选项和与问题相关的细粒度知识,而在 Determine 阶段,利用探索的信息构建一个知识增强的多项选择提示,指导冻结的 LLM 确定最终答案。对三个基准 KGQA 数据集进行的大量实验表明,EtD 实现了最先进的性能并生成了忠实的推理结果。
Jun, 2024
使用来自知识图谱的规划数据,我们介绍了一种增强大型语言模型在复杂问答任务中的性能的新框架,通过使用这些数据对 LLMs 进行微调,提高其规划能力,更好地处理涉及检索的复杂 QA 任务。我们的框架在多个数据集上进行评估,包括我们提出的新基准,突出了其有效性和知识图谱派生规划数据的好处。
Jun, 2024
大型语言模型与图神经网络相结合,应用于图数据关系挖掘任务,并设计了一个创新的框架,将图数据的关系信息与自然语言有效结合,从而提高大型语言模型对图数据连通性信息的理解能力。
Feb, 2024