AutoNumerics-Zero 自动发现最新数学函数
通过计算机算法发现大量连分数公式,并揭示了保守矩阵场这一新颖数学结构,统一了现有的数学公式,生成了无穷多个新公式,并引发了不同数学常数之间的意想不到的联系,同时可以用于证明无理性定理。实验证明了大规模计算方法在攻克长期悬而未决的问题并发现不同科学领域之间的意外联系中的潜力。
Aug, 2023
本文构建了一种快速算法来评估满足递推关系的函数族的转换,这些算法不仅包括在给定某些点的这些线性组合的值的情况下计算函数系数的算法,还包括反之亦然,在给定线性组合中的系数的情况下计算这些点的线性组合,这些过程也称为某些特殊函数级数的分析和合成。这篇论文中的算法是高效的,因为它们的计算成本与 n (ln n)(ln (1/epsilon))/^3 成正比,其中 n 是输入和输出数据量,epsilon 是计算精度。
Sep, 2006
本文主要研究并比较了计算 log-sum-exp 函数或 softmax 函数时常见的算法,并通过舍入误差分析和函数条件数进行精度评估,得出了使用 shifted formulas 的矩阵运算相对于不使用的方法更加准确的结论。
Sep, 2019
我们介绍了神经网络对象并扩展了已有的神经网络微积分,目的是证明神经网络多项式、神经网络指数、正弦和余弦确实能够近似其实数对应物,以某些参数 q 和 ε 发生限制。此外,我们还表明参数和深度的增长仅对所需精度(在实数域上定义的 1 - 范数差异)是多项式的,从而证明这种逼近方法中,神经网络在某种程度上具有其所逼近函数的结构特性并非完全无法处理。
Feb, 2024
本文探讨算法指数增长的思维实验,重点在于阐述该思想在指数增长定点计算算法中找到了实际应用。作者提供了一种名为算法增强的推进迭代定点计算收敛的通用方法,还介绍了该方法能够在收敛速度上实现指数级加速,最后讨论了算法实现有关的问题,特别是对于标量情形的指数函数。
Apr, 2023
该论文讨论了一种简单有效的方法,用于对长序列的浮点数进行求和。该方法包括两个阶段:累积阶段,其中浮点数的尾数添加到由指数索引的累加器中,重构阶段,将最终的求和结果完成。对于 FPGAs 和 ASICs,给出了各种体系结构细节,包括将操作与乘法器融合,创建高效的 MAC。对于 FPGAs,给出了一些结果,包括在 AMD FPGAs 上每个时钟周期能够使用~6,400 LUTs + 64 DSP48,以 700+ MHz 的速度乘法和累加两个 4x4 矩阵的 bfloat16 值的张量核心。然后将该方法扩展到 posits 和对数数。
Jun, 2024
通过分析高度表达力模型的基本结构元素,我们引入了一个表达力类别的层次结构,将全局可近似性属性与无限 VC 维度的弱属性相连接,并证明了几个逐渐复杂的功能族的分类结果。特别地,我们介绍了一个通用的多项式 - 指数 - 代数功能族,经证明它受到了多项式约束。作为结果,我们表明具有不超过一层具有超越激活函数(如正弦或标准 sigmoid)的固定大小的神经网络通常无法近似任意有限集上的函数。另一方面,我们提供了包括两层隐藏层神经网络在内的函数族的示例,它们在任意有限集上可近似函数,但在整个定义域上却无法做到。
Nov, 2023
该论文介绍了为了更好地实现、测试和资源评估量子算法,使用量子电路来评估量子算法文献中经常遇到的函数,以及借鉴目前高性能计算领域的经验优化这些电路,并实现了一个量子软件堆栈模块来自动生成用于计算基础函数的电路,以更详尽的成本分析启发未来量子计算设备的具体应用和降低计算基础算术成本的未来研究。
May, 2018
该研究提出了一种名为等式学习器(EQL)的新型函数学习网络,可以学习解析表达式,并能够外推到未知的领域。通过稀疏正则化可以得到简洁明了的可解释表达式,可用于高效的基于梯度的训练。
Oct, 2016
研究评估了使用数据增强、后处理和代码生成模型 CodeT5 合成数学程序的效果,通过应用线性规划规则来评分和纠正光束,该方法基于自然语言规范实现自动化建模。实验结果表明,在使用这些增强方法后,CodeT5 基础版本的执行准确率为 0.73,明显优于 ChatGPT 的零 - shot 执行准确率 0.41 和 Codex 的 0.36。
Mar, 2023