张量网络秩
本文讨论了针对高于三阶的张量的最优低秩逼近定理。我们提出了使用弱解来克服低秩逼近问题的不适定性,并从代数几何的角度将我们的工作与张量的现有研究联系起来。
Jul, 2006
通过对两个 m 维变量的光滑函数进行采样生成的矩阵的低秩逼近是本文关注的重点。我们否定了先前文献中对一个特定类别的解析函数所提出的论点,即这些矩阵可以独立于 m 具有准确的逐个元素的秩逼近。我们在理论上解释了支持该论点的数值结果,并描述了三个更窄的函数类别,其中 n×n 由函数生成的矩阵可以在与维度 m 无关的情况下以 O (log (n)ε^(-2) polylog (ε^(-1))) 的逐个元素误差逼近。我们还将我们的论点扩展到了由 m 维变量的多线性积生成的张量的低秩张量列逼近。我们在 Transformer 神经网络的注意力低秩逼近的背景下讨论了我们的结果。
Jul, 2024
本文探讨了低秩张量回归模型和高斯过程之间的有趣联系,证明了低秩张量回归模型本质上是学习高斯过程中的多线性核,并将低秩假设转化为约束贝叶斯推断问题。我们证明了神谕不等式,并为等效高斯过程模型推导了平均情况学习曲线。我们的研究发现低秩张量回归虽然在经验上非常成功,但高度依赖协方差函数的特征值和变量相关性。
Oct, 2017
通过大规模神经记录,我们研究了学习过程中权重矩阵形成的 3-Tensor 的秩,并发现推断得到的权重具有较低的张量秩,并且通过数学结果证明了较低的张量秩权重在训练低维任务的 RNN 中自然地产生。
Aug, 2023
本文介绍了张量网络及其运算的简介并侧重于介绍用于数据 / 参数的超压缩高阶表示的张量网络模型及其应用, 包括支持张量机、求广义特征值、深度神经网络等优化问题的张量分解方法,如张量列车和分层 Tuck 分解,并通过图形方法以及基于核张量的低秩张量近似来解释张量网络是如何能够在大量数据上执行分布式计算的。
Aug, 2017
该论文提出了一种灵活的通用低秩张量估计问题的框架,包括计算成像、基因组学和网络分析等应用中的许多重要实例,并通过投影梯度下降的统一方法来克服这些问题的非凸性,以适应底层低秩结构,并证明该算法在估计误差的收敛速度上达到极小值最优率。
Feb, 2020
本文探讨了基本的张量网络模型和相关算法,尤其是使用新的数学和图形表示的张量列车(TT)分解。通过张量化和使用量子化张量列车网络实现数据的超级压缩,对大规模数据优化问题进行了分布式表示,并通过优化迭代和近似张量缩并的方式,应用小型矩阵和张量运算来解决一系列难以用经典数值方法解决的问题,例如广义特征值分解,主成分分析 / 奇异值分解和规范相关分析。
Jul, 2014