学习符号表达式的连续语义表示
本文介绍了一种在连续向量空间中表示数学表达式的方法,使用序列到序列架构的编码器生成向量表示,并比较了这种方法与自编码器的差异。最后,为了加快未来的项目,我们发布了一组等价的超越和代数表达式对的语料库。
Oct, 2022
本文探讨了深度神经网络存在的一些局限性,以及最近兴起的神经符号混合系统如何整合符号推理并提出改进方法,将通用注释逻辑扩展为一个基于离散优化的二值化神经网络,提供了可行性证明,并讨论了实现该框架面临的挑战。
Feb, 2023
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
研究论文提出了使用神经网络来获得离散表示的机器语言的想法,并指出相比连续特征表示,离散语言表示在解释性、泛化能力和鲁棒性方面具有多个优势。
Jan, 2022
该研究旨在弥合深度学习和符号 AI 之间的差距,提出了一种新型的端到端神经网络架构,可以从原始像素数据学习形成具有显式关系结构的命题表示。通过评估和分析体系结构,引入了一系列不同复杂度的简单视觉关系推理任务。结果表明,预先训练这种任务的课程,可以学习生成可重复使用的表示形式,在比较多个基线架构后更好地促进了先前未见过的任务的后续学习。 最后,研究者通过可视化成功训练过的模型的工作方式,揭示了体系结构的功能。
May, 2019
本文提出了一种基于图嵌入网络的符号知识应用方法,该方法将命题公式 (和赋值) 通过增强的 Graph Convolutional Network (GCN) 投射到流形上。通过识别节点异质性和结构约束等技术,我们能够生成语义上忠实的嵌入,提高推理检查和视觉关系预测模型的性能。有趣的是,我们观察到命题理论表示的可处理性与嵌入的易用性之间存在一种联系。
Sep, 2019
本文通过实验发现,使用两种不同的表示法,即经过预训练的表示法和任意表示法,神经网络能够进行基本的相等性 (数学恒等式)、模式相等性 (学习 ABA 模式序列) 和层级相等性 (只进行基本相等性训练) 的学习,这些任务是为了区分人类独特的符号能力而被提出的,这一发现表明,非符号学习过程可以产生符号推理的基本方面。
Jun, 2020
我们提出了一种用于学习算法任务的原创方法,该方法受符号人工智能中的重写系统的启发,该系统由专门的模块组成的神经结构实现,通过系统地应用组合规则来解决超出分布的问题实例。
Feb, 2024
我们介绍了一种神经符号连续学习的方法,其中模型必须解决一系列神经符号任务,即它必须将子符号输入映射到高级概念,并通过符合先前知识的推理计算预测。我们提出了 COOL,一种面向神经符号连续问题的概念级连续学习策略,并在三个新的基准测试中进行了实验,这表明 COOL 在其他策略失败的神经符号连续学习任务上具有持续的高性能。
Feb, 2023