通过结合逻辑和信息几何,我们提出了一种将知识嵌入和逻辑约束引入机器学习模型中的方法,通过构造分布并将其与原始损失函数以及费舍尔 - 劳距离或库尔巴克 - 莱布勒散度相结合构造损失函数,以输出概率分布来包含逻辑约束。
May, 2024
本文综述了利用逻辑指定的背景知识以获取性能更好、学习数据更少或保证符合背景知识的神经模型的研究,并根据表达背景知识的逻辑语言和实现目标进行分类。
May, 2022
本文提出了一种新颖的方法,利用符号知识进行深度学习,引入了语义损失函数来约束神经网络输出的逻辑,并且在半监督多分类和结构化对象预测任务中实验验证,取得了几乎最优的结果。
Nov, 2017
该论文探讨如何利用神经符号方法求解具有约束条件的优化问题,为此提出一种计算约束条件之间的互信息的方法,并在三个任务中进行了测试,证明了该方法在提高性能的同时,避免了计算上的复杂性。
Feb, 2023
通过将背景知识编码为逻辑约束,用可微分逻辑指导学习过程,创造性地满足约束的机器学习模型进行了比较和评估,并提出了未来工作的开放问题。
Nov, 2023
该论文提出了一个通用框架,将在任务函数集合中以逻辑约束的形式的先验知识集成到核机器中,以及背景环境的部分表示,利用这些知识和监督示例中的信息与学习算法一起操作。
Feb, 2024
本文利用逻辑神经网络(LNNs)定义推理图,通过控制不需要执行的动作来加速强化学习的收敛速度,从外部知识源中实现无模型强化学习,我们的实验结果表明,相较于没有逻辑约束的模型自由强化学习方法,我们的方法收敛速度更快。
Mar, 2021
将离散逻辑约束注入神经网络学习是神经符号人工智能领域的主要挑战之一。本文发现,直通估算器这一用于训练二进制神经网络的方法可有效应用于将逻辑约束纳入神经网络学习中。我们设计了一种系统的方式将离散逻辑约束表示为一个损失函数;通过梯度下降,利用直通估算器最小化该损失函数可以使得神经网络的权重朝着使二值化输出满足逻辑约束的方向更新。实验结果表明,通过利用 GPU 和批次训练,这种方法比现有的需要进行大量符号计算来计算梯度的神经符号方法具有更好的可扩展性。此外,我们证明了该方法适用于不同类型的神经网络,如多层感知机(MLP)、卷积神经网络(CNN)和图神经网络(GNN),使它们能够通过直接从已知约束中学习来学习了无标签数据或更少标签数据。
Jul, 2023
采用逻辑神经网络学习归纳逻辑规则,得出高度可解释且具有灵活参数化以适应数据的规则。
Dec, 2021
神经符号人工智能(Neuro-symbolic AI)通过在神经网络的输出分布上最大化符号约束的可能性来弥合纯符号和神经学习方法之间的差距。为了应用神经符号学习于更具表达能力的自回归分布,例如转换器,我们提出了一种在随机的局部近似上对其进行约束的方法。我们的方法是分解的,允许重用子问题的解决方案,进而有效地计算神经符号误差,并且是局部的高保真度近似,具有低熵和 KL 散度,改进了基本模型预测逻辑一致输出的能力,也在大型语言模型去毒化任务方面取得了先进技术水平。
Dec, 2023