CoNSoLe:凸形神经符号学习
我们提出了 CoNSAL(结合神经网络和符号回归用于构建非线性动力系统的分析李雅普诺夫函数),该框架包含神经李雅普诺夫函数和符号回归组件,其中符号回归用于提取神经网络的精确分析形式。我们的方法不仅将符号回归用作翻译工具,还用作发现反例的手段。当分析公式中没有发现反例时,此过程终止。与先前结果相比,我们的算法直接生成具有改进的可解释性的李雅普诺夫函数的分析形式,包括在学习过程和最终结果中。我们将算法应用于二维倒立摆、路径跟踪、Van Der Pol 振荡器、三维三角动力学、四维旋转轮摆、六维三母线电力系统,并表明我们的算法成功地找到了它们的有效李雅普诺夫函数。
Jun, 2024
通过利用凸优化和双层优化技术,我们解决了神经符号系统的一个关键挑战,开发出一种基于梯度的通用框架,用于端到端神经和符号参数学习。我们的框架的适用性得到了 NeuPSL 的证明,这是一种最先进的神经符号体系结构。
Jan, 2024
通过生成一个确保更稳健的神经网络的近似方法,来解决神经网络的准确性和稳健性之间的权衡关系。该方法是完全凸的,并将其作为半正定规划提出。将其应用于稳健化模型预测控制以验证结果,旨在介绍一种在神经网络准确性和稳健性之间权衡的方法。
May, 2024
引入了一种新型通用损失函数 Symmetric Contrastive (Sy-CON) loss 用于有效地连续自监督学习 (CSSL).
Jun, 2023
本文提出了一种新颖的方法,利用符号知识进行深度学习,引入了语义损失函数来约束神经网络输出的逻辑,并且在半监督多分类和结构化对象预测任务中实验验证,取得了几乎最优的结果。
Nov, 2017
该论文探讨如何利用神经符号方法求解具有约束条件的优化问题,为此提出一种计算约束条件之间的互信息的方法,并在三个任务中进行了测试,证明了该方法在提高性能的同时,避免了计算上的复杂性。
Feb, 2023
本文提出了一个统一的非凸优化框架,用于分析神经网络训练,引入了代理凸性和代理 Polyak-Lojasiewicz (PL) 不等式的概念,结合梯度下降,对神经网络训练的目标函数提供了高效的保证。通过代理凸性和代理 PL 不等式,本文进一步揭示了许多现有的神经网络训练保证的统一性。
Jun, 2021
Symbolic Q-network (Sym-Q) 是一种基于强化学习的模型,重新定义了符号回归作为一种顺序决策任务,通过奖励信号对表达式的匹配精度进行优化,从而在发现潜在表达式方面具有独特的能力和效率。
Feb, 2024
通过结合逻辑和信息几何,我们提出了一种将知识嵌入和逻辑约束引入机器学习模型中的方法,通过构造分布并将其与原始损失函数以及费舍尔 - 劳距离或库尔巴克 - 莱布勒散度相结合构造损失函数,以输出概率分布来包含逻辑约束。
May, 2024
本文通过应用 Hamilton 神经网络来学习和利用物理系统中保守量的对称约束,通过适当的损失函数来实现周期坐标的强制,从而在简单的经典动力学任务中实现了更高的准确性,进而拟合出网络中的隐向量的解析式,从中发现利用了保守量,如角动量。
Apr, 2021