在这篇论文中,我们介绍了一个新的问题,在持续学习领域中称为 “在线持续知识学习(OCKL)”。我们提出了一个新的基准和评估指标,旨在测量新知识获取的速度和先前学到的知识的保留率。通过使用各种最先进的方法进行的实证评估为 OCKL 建立了稳健的基准。我们的结果显示,现有的持续学习方法对于应对 OCKL 提出的独特挑战不足够。我们确定了影响知识获取和保留之间权衡的关键因素,从而推进了我们对如何在不断演化的环境中训练 LLMs 的理解。
Nov, 2023
LLMs 通过内部的知识图来推理知识图谱,本文研究了 LLMs 从预训练知识图中召回信息的准确性以及从上下文中推断知识图关系的能力,并通过四个不同的知识图推理任务来验证了其成功处理简单和复杂知识图推理任务以及从输入上下文中推断的实验结果。
Dec, 2023
该研究提出了一个基于知识推理的预训练语言模型(OREO-LM),它采用可微分的知识图谱推理模块,使语言模型与知识图谱相互协作,以更好地回答开放域问题,并在 RoBERTa 和 T5 上实现了最先进的效果。
Nov, 2022
大型语言模型面临的安全风险可以通过从训练数据中删除危险知识来解决,但隐式信息可能仍然分布在各个训练文档中,我们研究了一种称为归纳无上下文推理的泛化类型,通过从训练文档中分散的证据中推断潜在信息并将其应用于下游任务,并展示了大型语言模型可以执行归纳无上下文推理。
Jun, 2024
本文提出了 CoKE 方法,通过评估大型语言模型的知识边界,使其能够准确表达自己的知识边界,从而减少幻觉现象,显著提高在领域内和领域外的性能表现。
利用大型语言模型,我们展示了利用文本、提示和自主代理让模型进行上下文建模和推理的计算范式,即基于大型语言模型驱动的上下文感知计算。
Sep, 2023
利用大型语言模型 (LLMs) 和知识图谱 (KG) 的协作训练方法,本研究在知识图谱的指导下,通过迭代探索和选择性地检索任务相关的知识子图来支持推理,使得 LLMs 能更可靠地进行基于知识的推理,并同时明确阐述推理过程,实验结果表明本方法在多个数据集上显著改进,尤其在 QALD10 数据集上相对于最佳基线和最先进的方法提高了超过 10%,为今后的知识图谱和大型语言模型融合研究提供了有价值的参考,提升 LLMs 在解决复杂问题上的能力。
Feb, 2024
该研究论文探讨了大型语言模型在提升人工智能的解释性和可靠性方面的因果推理。提出了一种利用 “do-operators” 构建反事实场景的因果归因模型,系统度量输入数值数据和语言模型先有知识对其因果推理过程的影响。实验评估发现,语言模型的因果推理能力依赖于所提供的上下文信息和特定领域的知识,并支持 “知识确实是语言模型在进行合理因果推理时主要需要的” 这一观点。与此相反,在缺乏知识的情况下,语言模型仍然通过可用的数值数据进行一定程度的因果推理,尽管计算存在一定限制。
本文研究了大型语言模型 LLMs 的推理能力,通过对语义从推理过程中的剥离进行实验,发现语义在 LLMs 的推理中起着至关重要的作用,但在符号逻辑和违反常识的推理任务中表现出困难。作者提出了这一发现的新视角,并呼吁深入研究 LLMs 的推理机制。
May, 2023
大型语言模型在逻辑推理和符号推理等复杂场景中表现出色,但其在理解逻辑规则上存在限制,本文通过反事实方法探讨了大型语言模型的推理能力,强调了加强机制以确保其可靠的逻辑推理的需求。