- 解离逻辑:大型语言模型推理能力中的上下文作用
通过调查来自一系列领域中的抽象和上下文逻辑问题的对比,本研究旨在系统地分离纯逻辑推理和文本理解。我们探讨当基础逻辑结构保持不变时,LLMs 在各个领域中是否展示出真正的推理能力。
- OWLOOP:将 OWL 公理映射为面向对象编程 (OOP) 层次结构的接口
该研究论文介绍了一种基于工厂模式的 OWLOOP API,用于解决在 Ontology Web Language (OWL) 和 Object-Oriented Programming (OOP) 之间映射逻辑公理的问题,并探讨了工厂模式对 - AAAILogicPrpBank: 一个用于逻辑蕴涵和等价的语料库
语言模型在问题解决和决策中具有重要作用,但其在复杂数学问题中的逻辑推理能力尚未得到充分研究。本研究提供了一个有标签的命题逻辑语料库 LogicPrpBank,包括六个数学专题的 7093 个命题逻辑陈述,用于研究逻辑蕴含和等价的推理任务。通 - 从推理路径聚合的角度理解语言模型的推理能力
使用预训练语言模型进行复杂推理,理解预训练中的下一标记预测贡献于推理能力,透过聚合间接推理路径来产生新结论,在逻辑推理和数学推理中通过随机游走路径对知识图谱和数学问题中的推理过程进行建模,研究表明,加强未标记的随机游走推理路径可以提高现实世 - ICCVLOGICSEG:用神经逻辑学习和推理解析视觉语义
LOGICSEG 是一个综合的视觉语义解析器,它集成了神经归纳学习和逻辑推理,通过丰富的数据和符号知识,将视觉概念结构化为一个层级结构,进行层次一致的预测和逻辑推理,并通过多个数据和神经计算图来进行逻辑感知网络的训练,从而实现与现有分割模型 - ACL预训练语言模型是否具备本体知识的认知与理解能力?
探索预训练语言模型(PLMs)是否了解本体知识以及它们在知识存储方面的语义理解和逻辑推理能力。
- ICLR使用逻辑归纳偏置学习语言表示
本文介绍了一种基于逻辑推理的神经网络架构 FOLNet,它可以有效地学习强大的语言表示,并具有更强的迁移学习能力。实验证明,FOLNet 模型在多个语言理解任务中胜过了现有的强大的基于 Transformer 的方法。
- ICLR神经逻辑类比学习
本文介绍了一种新的神经逻辑类比学习方法,利用可微分逻辑推理来解决字母字符串类比问题,该方法利用神经网络和逻辑推理来捕捉输入字母串的内部逻辑结构,该机器学习方法优于现有的现有的方法。
- PRIMA: 多任务推理智能体内的规划推理器
本研究提出了一个计划推理框架并采用深度强化学习的方式进行训练,旨在解决多任务推理中公共的难题,即如何保持广泛的推理能力和高效的特定任务表现。通过共享推理规则和选择合适的推理路径,该模型在多个领域的实验中取得了良好的效果。
- WSDM图协同推理
本研究提出了一个名为图形协作推理(GCR)的方法,该方法利用邻居链接信息从逻辑推理角度对图形进行关系推理,并在常用基准数据集上展示其在链接预测等任务方面的卓越表现。
- AAAIJEC-QA:一个法律领域的问答数据集
我们制作了 JEC-QA,这是中国国家司法考试中收集的最大的法律领域问答数据集,它要求逻辑推理能力用以解答问题。我们已经发布了该数据集和我们的基线模型,以帮助提高机器理解模型的推理能力。
- ICLR神经逻辑机器
该论文提出了神经逻辑机(NLM)这种结合神经网络和逻辑编程的神经符号架构用于归纳学习和逻辑推理,在小规模排序等任务上进行训练后,可以推广到大规模任务并在如家庭树和排序等任务中取得了优异表现。
- KDDLYRICS: 用于集成逻辑推断和深度学习的通用界面层
LYRICS 是一个使用 First Order Logic 的输入语言,它可以与任何 TersorFlow 计算图相结合,并将公式转换成一系列实值约束条件,以满足先前确定的知识并允许学习者的权重。它在各种模型和知识方面都非常通用,其中包括 - KG^2: 使用上下文知识图嵌入学习科学考题推理
本文提出了一种新的答题框架,其使用两个上下文知识图谱中的神经嵌入来解决自然科学考试问题,该模型在 AI2 Reasoning Challenge 上表现出优异的性能。
- ICLR神经程序员:利用梯度下降诱导潜在程序
本研究提出了一种新颖的神经程序模型(Neural Programmer),该模型扩展了具有少量基本算术和逻辑运算的不可区分神经网络,此模型可以在多个步骤中调用这些扩展操作,因此产生的组成程序比内置操作更复杂。该模型采用相对较弱的监督信号进行