逻辑约束下的深度学习
通过引入双变量来解决逻辑连接约束的快捷方式问题,将编码形式化为与模型的原始训练损失兼容的分布损失,实现学习逻辑约束的新框架在模型的普适性和约束满足方面表现出卓越的性能。
Mar, 2024
通过结合逻辑和信息几何,我们提出了一种将知识嵌入和逻辑约束引入机器学习模型中的方法,通过构造分布并将其与原始损失函数以及费舍尔 - 劳距离或库尔巴克 - 莱布勒散度相结合构造损失函数,以输出概率分布来包含逻辑约束。
May, 2024
本文首次综述了将领域知识作为约束条件融入深度学习 (DL) 学习模型的方法,以提高其性能,并针对深度神经网络提出了五种主要的方法,包括特征空间操作、假设空间修改、数据扩增、正则化策略和受约束的学习。
May, 2020
本文介绍了一种新的框架,将逻辑语句编译成计算图,用于指导神经网络的训练和预测,在机器理解、自然语言推理、文本分块等任务表现出较高性能,特别是在低数据情况下表现出色。
Jun, 2019
本文研究了文本到图像模型,在细节导向的条件控制下,实现了更精细的空间控制。然而,某些生成的图像仍然不合理,尽管有丰富的对象特征和和谐的风格。我们发现,作为常识知识,深层次的逻辑信息在理解和处理图像中起着重要作用,但几乎所有模型都忽视了图像中逻辑关系的重要性,导致在这方面的性能较差。因此,我们提出了 LogicalDefender 方法,将图像与已由人类总结的逻辑知识结合起来,这样可以更快、更好地学习逻辑知识,并同时从图像和人类知识中提取广泛适用的逻辑知识。实验证明,我们的模型在逻辑性能方面取得了更好的表现,并且提取的逻辑知识可以有效地应用于其他场景。
Mar, 2024
该论文提出了一个通用框架,将在任务函数集合中以逻辑约束的形式的先验知识集成到核机器中,以及背景环境的部分表示,利用这些知识和监督示例中的信息与学习算法一起操作。
Feb, 2024
本研究采用最新的深度神经网络训练方法,成功开发出了一种模型,可以学会在基本本体论推理的形式下有效地进行逻辑推理,进而可以应用于许多现实世界中的问题,并且在各项实验中表现出高度准确和生物学上的可行性。
Aug, 2018
本研究通过引入多任务学习、约束保持和课程学习等技术改进了 Popper ILP 系统,实验结果表明这些优化手段对于提高系统性能和推广基于逻辑程序的机器学习应用具有重要意义。
Aug, 2022
这篇论文提出了一种深度学习和逻辑规则相结合的通用框架,能够将逻辑规则的结构信息转移至神经网络的权重中,有效地提高了 CNN 和 RNN 的性能,适用于情感分析和命名实体识别等多个领域。
Mar, 2016