本文展示神经网络在数学方面的应用,如符号积分和求解微分方程。提出了一套数学问题表示法和生成大规模数据集进行序列到序列模型训练的方法,并获得了超越 Matlab 或 Mathematica 等商业计算机代数系统的结果。
Dec, 2019
提出了一种基于深度强化学习的通用规则自学习方法,用于解决非线性常微分方程和偏微分方程,该方法利用深度神经网络结构化的演员输出候选解,利用物理规则派生的评论家进行求解。
May, 2018
提出了利用深度学习解决符号回归的框架,该框架使用循环神经网络生成数学表达式分布,并使用新颖的风险寻求策略梯度来训练网络生成更好的拟合表达式。该算法在一系列基准问题中表现优于几种基准方法,包括符号回归的黄金标准 Eureqa。
该研究提出了一种名为等式学习器(EQL)的新型函数学习网络,可以学习解析表达式,并能够外推到未知的领域。通过稀疏正则化可以得到简洁明了的可解释表达式,可用于高效的基于梯度的训练。
Oct, 2016
提出了一种新的增强符号回归机 (RSRM) 模型,通过 Monte Carlo 树搜索、双 Q-learning 块和调制子树发现块,可以从极少的数据中学习复杂的数学方程,并取得了关于符号回归的最新性能记录。
May, 2023
该研究提出了一个神经和符号端到端强化学习架构,能够克服当前深度学习技术的局限性,如需要非常大的数据集工作、难以实现高级认知功能和透明性欠佳等。研究者以简单的视频游戏为例,展示了这个架构的实现原型,结果表明它能够有效地学习,并通过获得一组符号规则,可将性能提高到比传统完全神经强化学习系统更好的水平。
Sep, 2016
本研究介绍了第一种使用大规模预训练的符号回归方法,通过生成一组不受限方程式并使用 Transformer 预测输入输出对应的符号方程,提高了方程式发现的效率和准确性。
Jun, 2021
本文通过进行文献调查,以三个构成神经符号强化学习的组件为重点(神经网络、符号和强化学习),将研究作品进行分类,并分析其强化学习部分的组成。同时,发现了该领域中的研究机会和挑战。
Sep, 2023
该论文探讨了在强化学习领域中,如何通过学习前向模型(也称转移函数、系统动力学)来近似马尔可夫决策过程中状态转移函数的过程,并提出了利用强化学习技术解决复杂动态系统学习问题的实验结果
Dec, 2022
该论文介绍了使用深度学习技术计算符号无限积分,以及找到解析一阶和二阶常微分方程的符号解的系统,该系统的表现在某些测试集上优于 Mathematica。