TensorLog: 深度学习与概率数据库的结合
DeepProbLog 是一种神经概率逻辑编程语言,通过神经谓词结合深度学习。它支持符号和子符号表示和推断、程序归纳、概率编程和深度学习,并结合了通用神经网络和表达式概率逻辑建模和推理。
Jul, 2019
Logic Tensor Networks 通过在第一阶逻辑语言上定义一个逻辑形式(Real Logic),该形式的公式在区间 [0,1] 上具有真值,并且具体定义在实数域上的语义高效地将推理知识与数据驱动的机器学习结合起来,并证明了通过使用谷歌的 tensorflow 原语将 Real Logic 实现在深度张量神经网络上,并在简单但有代表性的知识自动完成的实验中应用逻辑张量网络。
Jun, 2016
kLog 是一种新颖的统计关系学习方法,采用基于核的学习方法,在具有表达力的逻辑和关系表示上进行,可以声明性地指定学习问题,支持混合数字和符号数据,以及在归纳逻辑编程系统中以 Prolog 或 Datalog 程序的形式表示的背景知识,并可应用于分类、回归、多任务学习和集体分类等任务,同时比 Tilde 和 Alchemy 更准确或更快,并且具有 GPLv3 许可证。
May, 2012
介绍了一种名为 DeepStochLog 的新型神经符号学习框架,其利用了一类名为随机确定性子句文法的概率式逻辑程序,其中引入了神经语法规则,可以实现端对端的训练,以实现比神经概率逻辑程序更高效的推理和学习。实验结果表明,DeepStochLog 取得了具有挑战性的神经符号学习任务的最新成果。
Jun, 2021
提出了一种基于张量嵌入的新逻辑编程语言 T-PRISM,并介绍了其逻辑编程部分和数值计算部分。该编程语言能够从符号推理到深度学习提供非常广泛的高级声明建模,同时结合了张量嵌入和逻辑编程的最小模型语义。该论文还在使用 FB15k 和 WN18 数据集的知识图上推出了 DistMult 模型。
Jan, 2019
本文探讨了神经符号计算中的两个基本问题:深度学习是否能够端到端地解决逻辑中的挑战性问题,以及神经网络是否能够学习逻辑的语义。研究重点是线性时间暂态逻辑(LTL),通过训练 Transformer 来直接预测给定 LTL 公式的解,使用传统求解器产生的经典解决方案生成训练数据,研究表明,使用这些特定的解决方案进行训练已足够。 Transformers 甚至可以预测在文献基准测试中,经典求解器超时的公式的解,它也可以推广到逻辑的语义,虽然与经典求解器找到的解有所不同,但仍可以正确地预测大多数公式的解。
Mar, 2020