本论文提出了一个通用框架,将监督和无监督示例与由一组一阶逻辑子句表示的背景知识集成到内核机器中,通过在示例上学习多个定义在一组对象上的谓词,并在其值的允许配置上强制执行一组 FOL 约束。
Nov, 2023
本研究通过引入多任务学习、约束保持和课程学习等技术改进了 Popper ILP 系统,实验结果表明这些优化手段对于提高系统性能和推广基于逻辑程序的机器学习应用具有重要意义。
Aug, 2022
通过结合逻辑和信息几何,我们提出了一种将知识嵌入和逻辑约束引入机器学习模型中的方法,通过构造分布并将其与原始损失函数以及费舍尔 - 劳距离或库尔巴克 - 莱布勒散度相结合构造损失函数,以输出概率分布来包含逻辑约束。
May, 2024
该研究通过正半定核理论,提出一种可以优化多任务学习的无约束对偶问题,从而节省了计算时间。
Nov, 2015
通过引入双变量来解决逻辑连接约束的快捷方式问题,将编码形式化为与模型的原始训练损失兼容的分布损失,实现学习逻辑约束的新框架在模型的普适性和约束满足方面表现出卓越的性能。
Mar, 2024
本文综述了利用逻辑指定的背景知识以获取性能更好、学习数据更少或保证符合背景知识的神经模型的研究,并根据表达背景知识的逻辑语言和实现目标进行分类。
May, 2022
通过将背景知识编码为逻辑约束,用可微分逻辑指导学习过程,创造性地满足约束的机器学习模型进行了比较和评估,并提出了未来工作的开放问题。
本文针对使用在 SVM 分类器中的学习核在多任务和终身学习场景下的问题,提出了关于大边界分类器误差的泛化界限。我们的结果表明,在学习的核族群满足条件的情况下,在同时解决多个相关任务时比单个任务学习更为有效。特别是,随着观察到的任务数量的增加,假设在所考虑的核族群中存在一种能够在所有任务上产生低逼近误差的核函数,则与学习这个好的核函数相关的额外开销后会消失,学习复杂度将收敛到当学习者掌握这个好的核函数时的学习复杂度。
Feb, 2016
本文提出了一种新的谱范数方法,用于多任务学习,假设任务被分成不同的群组,每个群组具有相似的权重向量,并演示其在合成数据及 IEDB MHC-I 结合数据集上的优秀表现。
Sep, 2008
本文提出了一种用深度学习和概率逻辑构成的深度概率逻辑(DPL)框架,将标记决策建模为潜变量,并使用变分 EM 学习概率逻辑中的不确定公式权重,从而实现间接监督,通过生物医学机器阅读的实验证明了该方法的可行性。
Aug, 2018