用于语义图像解释的逻辑张量网络
本文介绍了一种名为 Logic Tensor Networks(LTN)的神经符号形式和计算模型,支持通过引入一种称为 Real Logic 的可微分一阶逻辑表示语言进行学习和推理,并说明 LTN 提供了一种统一语言来规范和计算多个人工智能任务。
Dec, 2020
Logic Tensor Networks 通过在第一阶逻辑语言上定义一个逻辑形式(Real Logic),该形式的公式在区间 [0,1] 上具有真值,并且具体定义在实数域上的语义高效地将推理知识与数据驱动的机器学习结合起来,并证明了通过使用谷歌的 tensorflow 原语将 Real Logic 实现在深度张量神经网络上,并在简单但有代表性的知识自动完成的实验中应用逻辑张量网络。
Jun, 2016
本文介绍了一种名为 Interval Real Logic(IRL)的两重逻辑,该逻辑使用具有实际特征数据序列来解释知识,我们使用模糊逻辑解释连接词,使用梯形模糊间隔解释事件持续时间,使用间隔面积之间的关系解释模糊时间关系,同时介绍了 Interval Logic Tensor Networks(ILTN)—— 一种通过 IRL 的梯度传播来进行学习的神经符号系统。
Mar, 2023
本文对大型语言模型在逻辑推理方面进行了全面评估,提出了一种基于选择和推理的框架,可以在不进行微调的情况下改进性能,并伴随着因果自然语言推理过程的答案。
May, 2022
本文介绍了如何利用动态神经网络结构和基本逻辑操作,将深度学习和逻辑推理相结合,提出了名为 LINN 的模型,以推理方式解决推荐系统的问题,并在理论和实践任务中都取得了显著的性能提升。
Aug, 2020
本研究提出了一种基于逻辑张量网络的零样本学习方法,利用背景知识和与其他已知关系的相似性来推断在训练集中不存在的三元组 (主语,谓语,宾语),并在视觉关系数据集上实现了更好的性能表现。
Oct, 2019
TLINet 是一个神经符号框架,用于学习 Signal Temporal Logic 公式。该框架不仅学习 STL 公式的结构,还学习参数,具有解释性、紧凑性、表达能力丰富和计算效率高等优势。
May, 2024
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020