通过时间的神经 Datalog:通过逻辑规范实现知情的时间建模
本文提出了一种基于概率领域知识构建分布式约束的框架,并且通过 Lagrangian Relaxation 解决约束的推理问题,用于端到端的事件时间关系提取任务,实验结果显示我们的框架能够在新闻和临床领域的两个广泛使用的数据集上显著地提高基线的神经网络模型。
Sep, 2020
我们引入了一个神经符号规则归纳框架,该框架通过时序点过程模型高效地发现一个紧凑的时间逻辑规则集合来解释感兴趣的不规则事件。我们采用了矢量嵌入来表示谓词和逻辑规则,并通过梯度下降训练逻辑规则嵌入以获得谓词嵌入的最适合的组合表示。为了使规则学习过程更高效和灵活,我们采用了顺序覆盖算法,该算法逐步将规则添加到模型中,并移除已解释的事件序列,直到所有事件序列都被覆盖。在合成和真实数据集中,我们的方法表现出显著的效率和准确性,以较大的优势超过了现有技术基准的效率。
Jun, 2024
本文探讨了神经符号计算中的两个基本问题:深度学习是否能够端到端地解决逻辑中的挑战性问题,以及神经网络是否能够学习逻辑的语义。研究重点是线性时间暂态逻辑(LTL),通过训练 Transformer 来直接预测给定 LTL 公式的解,使用传统求解器产生的经典解决方案生成训练数据,研究表明,使用这些特定的解决方案进行训练已足够。 Transformers 甚至可以预测在文献基准测试中,经典求解器超时的公式的解,它也可以推广到逻辑的语义,虽然与经典求解器找到的解有所不同,但仍可以正确地预测大多数公式的解。
Mar, 2020
通过神经时序逻辑编程(Neural Temporal Logic Programming)学习原子事件之间的隐式时间关系并推导符合逻辑规则的复合事件标签,进而发现存在于嘈杂时间数据设定中的事件关系,通过对视频和医疗数据集的评估,证明其对规则发现的卓越表现。
Feb, 2022
我们提出了一种新的方法,利用表达式优化和符合预测,从有限样本正确性保证的角度学习出可以在用户定义的置信水平下正确描述未来轨迹的时间逻辑谓词。我们通过对模拟轨迹数据集的实验结果以及消融研究来展示我们方法的性能,并分析了算法的各个组成部分对性能的贡献。
Jun, 2024
本文提出了一种基于定理证明的方法,在神经网络的训练中规范和生成时间逻辑约束。通过 Isabelle 定理证明器的高阶逻辑,形式化嵌入线性时间逻辑,提出了一个损失函数,并使用 OCaml 版本制作的 PyTorch 模型进行了训练。结果表明,该算法在动态运动中达到预期效果,且避免了直接在 Python 这种编程语言中实现逻辑方面带来的许多风险。
Jul, 2022
TLogic 是一个可解释的框架,它基于通过时间随机游走提取的时间逻辑规则,用于处理时间知识图中的链接预测。与现有技术相比,在具有共同词汇表的相关数据集上,TLogic 能够更好地解释和推理,并提供更好的综合性能。
Dec, 2021
本文介绍 Differentiable Inductive Logic 框架,结合了 Inductive Logic Programming 和神经网络,非常高效地训练模型。该框架不仅支持传统 ILP 系统擅长的任务,而且对于噪声和训练数据中的错误表现出高鲁棒性。此外,它还可以与神经网络相连接以处理模糊非符号域的数据,同时提供超越单独使用神经网络所能达到的数据效率和泛化能力。
Nov, 2017
本文介绍了一种新型的循环神经网络结构,可用于学习信号时间逻辑公式,并对公式推导方法进行了系统性比较。通过梯度下降训练神经网络,在不施加特定模板的情况下推导出公式结构和参数,可在实现类似分类误差率(MCR)的情况下发挥作用。研究人员还发现时间逻辑推断问题存在欠确定性。
Aug, 2022
该论文提出了一种新的逻辑理论获取机制,结合神经符号学方法,使用前向推理不可微分规则感知网络从一组观察到的事实中学习提取一组逻辑规则和一小组核心事实,以推导其它事实,并在多个 ILP 规则归纳和领域理论学习数据集上展示了其有效性。
Sep, 2018