布尔逻辑反向传播,离散优化问题,收敛分析
Jan, 2024
本文提出了一种基于演化算法和特定领域语言的 Back-propagation 算法变体发现方法,发现了多个更新方程式,这些方程式在训练时间更短时能够比标准的 Back-propagation 算法具有更快的训练速度,并在收敛后表现相似。
Aug, 2018
通过提出一种基于二进制值的神经网络训练方法 (BNN),实现了通过基本的比特逻辑实现神经网络的前向传递。在资源受限的环境中,BNN 可以取代浮点数运算,减少存储空间占用、内存带宽、以及硬件能耗。同时,我们提出了权重压缩和噪声反向传播等训练技术,生成功能基本与实数网络相当的 BNN。通过在 MNIST 数据集上进行实验,我们证明了 BNN 表现出竞争性的性能并节省大量计算资源。
Jan, 2016
Logic Tensor Networks 通过在第一阶逻辑语言上定义一个逻辑形式(Real Logic),该形式的公式在区间 [0,1] 上具有真值,并且具体定义在实数域上的语义高效地将推理知识与数据驱动的机器学习结合起来,并证明了通过使用谷歌的 tensorflow 原语将 Real Logic 实现在深度张量神经网络上,并在简单但有代表性的知识自动完成的实验中应用逻辑张量网络。
Jun, 2016
本文提出了一种将全局结构化计算形式化整合到深度计算架构中的方法,其核心是开发了一种新的基于矩阵变化的 backpropagation 理论和实践,该方法广泛适用于机器学习或计算感知问题,我们在 BSDS 和 MSCOCO 基准测试中执行视觉分割实验,结果表明端到端训练的基于第二阶池化和归一化切割层的深度网络,使用矩阵反向传播优于没有利用全局层的对应网络。
Sep, 2015
提出了一种基于布尔逻辑代数的深度神经网络学习模型,建立了神经逻辑网络模型,可以显式地学习和解释逻辑函数,特别是用于归纳逻辑编程问题的新框架。通过在测试任务上的表现比较,证明了所提供的模型在元素算法任务上的有效性,并且可用于一些基准任务,如有序列表上的排序、十进制加法和乘法。
Apr, 2019
我们提出了一种新的框架,无缝提供神经网络(学习)和符号逻辑(知识和推理)的关键属性,每个神经元都有权重实值逻辑公式的组成部分,得到了高度可解释的分离表示,推理是全向的而不是集中在预定义的目标变量上,对应于逻辑推理,包括经典的一阶逻辑定理证明作为特殊情况。
Jun, 2020
本文介绍 Quantified Boolean Bayesian Network (QBBN),提供了逻辑和概率推理的统一视角,通过创建具有逻辑推理基础的无界布尔变量的贝叶斯网络,以解决信息检索中大型语言模型(LLM)产生幻觉的问题,并且研究了推断方法中的 LBP 的使用和收敛性。
Feb, 2024
提出了一种关于深层 ReLU 网络的新方法,将其视为 Lukasiewicz 无限值逻辑的电路对应物。介绍了一种从深层 ReLU 网络中提取多值逻辑公式的算法,适用于具有一般权重,包括实值权重的网络,可用于从数据上训练的深层 ReLU 网络中提取逻辑公式。
本研究介绍了一种新的 backpropagation 算法,并使用 Riemannian 几何和优化技术在矩阵流形上实现了层与层之间约束权重的深度神经网络,特别是引入了 Stiefel 层,对于无监督的特征学习至细粒度图像分类有很多好处。
Nov, 2016