本文对预训练语言模型的可学习演绎性能进行了全面评估,发现该模型存在推理规则泛化不足、对表面形式的修改表现不稳定、在推理过程中出现遗忘现象等问题,说明预训练语言模型对于演绎推理的表现仍不可靠,远未达到人类的推理能力。
Oct, 2022
通过引入基于原则的概率推理训练目标,本研究改进了大型语言模型的逻辑一致性和新知识推理能力。
Apr, 2024
本研究提出了一种新的框架 STREAM,通过采用最新的基于提示的语言模型作为知识专家来提取任务特定的逻辑规则,从而自动化地学习逻辑规则,以减少人工标注的工作量,并通过实验验证了该框架在命名实体标记任务中的有效性。
本文旨在将一个句子编辑数据集复用成为解释性测试场,系统研究预训练语言模型的可解释性及在该场景下的解释效果,发现注意力权重相关性较高,并且比基于梯度的显著性提取方法更有效。
Nov, 2020
通过从详细的规则中提取知识并显式编码到大型语言模型的参数中,我们提出了一种新的学习范式,即规则蒸馏,并证明这种方法在样本大小和泛化能力方面比基于示例的学习更加高效。
Nov, 2023
本研究分析了 transformer-based 语言模型中的概率逻辑规则应用,并提出了 Probabilistic Constraint Training (PCT) 方法,该方法显式地模拟了概率逻辑推理,并在新的 QA 基准中评估了其准确性和可解释性。结果表明,该方法可以提高基本语言模型在需要概率逻辑推理时的准确性和解释性,并且该技术的学习也可适用于新的情境。
May, 2023
机器学习模型,特别是语言模型,被应用于需要推理的各种任务。我们探索了 transformers 将自然语言中表达规则的句子翻译成逻辑规则的能力,以便进行可信的和受控制的逻辑推理。通过使用 DKET 数据集和基于 Atomic 知识库的语言到逻辑翻译数据集进行实验。
该研究证明,通过使用既有的预训练模型中的隐含知识以及显式的自然语言陈述,神经网络可以可靠地执行系统性推理任务,这为开放领域的系统不断与用户交互、持续改进的路径铺平了道路。
Jun, 2020
通过对大型语言模型的研究,我们发现它们在逻辑推理方面存在缺陷,导致其在任务解决中产生反事实的答案。为了解决这个问题,我们提出了多种策略,赋予大型语言模型逻辑推理能力,从而使其能够在不同场景中生成更符合逻辑的答案。我们还通过构建一个综合数据集 (LMM-LR) 对该方法进行了评估和预训练。在不同任务上进行了广泛的定量和定性分析,验证了通过逻辑训练大型语言模型的有效性和必要性,并为将来的工作提供了启示。
Oct, 2023
使用大型语言模型(LLM)进行推理任务时,我们介绍了一种名为 Hypotheses-to-Theories(HtT)的框架,该框架学习了一个用于与 LLM 进行推理的规则库。通过实验,我们证明 HtT 能够显著提高现有的提示方法的准确性,并且所学习的规则也可迁移到不同的模型和相同问题的不同形式中。